16 años Arquitecto de Big Data Consultor de TI con Databricks Washington DC

16 años Arquitecto de Big Data Consultor de TI con Databricks

Tiempo completo • Washington DC
Rol : Arquitecto de Big Data Consultor de TI Master
Cliente : Estado de DC
Ubicación : Washington, D.C.

Descripción de funciones


Este rol proporcionará experiencia para respaldar el desarrollo de una arquitectura de sistema de Big Data / Data Lake que respalde las operaciones de datos empresariales para el gobierno del Distrito de Columbia, incluidos los proyectos de Internet de las cosas (IoT) / Smart City, el almacén de datos empresariales, el portal de datos abiertos y las aplicaciones de ciencia de datos. Esta es una oportunidad emocionante para trabajar como parte de un equipo de datos senior colaborativo que apoya al director de datos de DC.  Esta arquitectura incluye Databricks, herramientas de la plataforma Microsoft Azure (incluidos Data Lake, Synapse), herramientas de la plataforma Apache (incluidos Hadoop, Hive, Impala, Spark, Sedona, Airflow) y herramientas de desarrollo de canalización de datos/ETL (incluidos Streamsets, Apache NiFi, Azure Data Factory).  La plataforma estará diseñada para su uso e integración en todo el Distrito con otras herramientas de OCTO Enterprise Data, como Esri, Tableau, MicroStrategy, API Gateways y bases de datos y herramientas de integración de Oracle.

Responsabilidades:
1. Coordina la gestión de proyectos de TI, ingeniería, mantenimiento, control de calidad y gestión de riesgos.
2. Planifica, coordina y supervisa las actividades del proyecto.
3. Desarrolla aplicaciones técnicas para apoyar a los usuarios.
4. Desarrolla, implementa, mantiene y hace cumplir normas y procedimientos documentados para el diseño, desarrollo, instalación, modificación y documentación de los sistemas asignados.
5. Proporciona capacitación para productos y procedimientos del sistema.
6. Realiza actualizaciones de aplicaciones.
7. Realiza, monitorea, mantiene o genera informes sobre bases de datos en tiempo real, comunicaciones de datos en serie y redes en tiempo real, y aplicaciones gráficas y lógicas en tiempo real.
8. Soluciona problemas.
9. Garantiza que el ciclo de vida del proyecto cumpla con los estándares y procedimientos del Distrito.

Requisitos mínimos de educación/certificación:
Licenciatura en Tecnología de la Información o campo relacionado o experiencia equivalente

Habilidades

Experiencia en la implementación de plataformas de almacenamiento y análisis de Big Data como Databricks y Data Lakes
Conocimiento de Big Data y Arquitectura de Datos y mejores prácticas de implementación - 5 años
Conocimientos de arquitectura e implementación de redes, seguridad y almacenamiento en plataformas cloud como Microsoft Azure - 5 Años
Experiencia con implementación de herramientas de datos y almacenamiento en plataformas en la nube como Microsoft Azure - 5 años
Conocimiento de sistemas Data-centric para el análisis y visualización de datos, como Tableau, MicroStrategy, ArcGIS, Kibana, Oracle - 10 Años
Experiencia en la consulta de fuentes de datos estructurados y no estructurados, incluidas bases de datos SQL y NoSQL: 5 años
Experiencia en el modelado y la ingesta de datos en y entre varios sistemas de datos mediante el uso de tuberías de datos - 5 años
Experiencia en la implementación de productos de datos Apache como Spark, Sedona, Airflow, Atlas, NiFi, Hive, Impala - 5 años
Experiencia con API / Servicios Web (REST/SOAP) - 3 Años
Experiencia con procesamiento de eventos complejos y transmisión de datos en tiempo real - 3 años
Experiencia en la implementación y gestión de herramientas y módulos de ciencia de datos como JupyterHub - 3 años
Experiencia con ETL, procesamiento de datos, analítica utilizando lenguajes como Python, Java o R - 3 Años
Experiencia con Cloudera Data Platform - 3 años
16+ años planificando, coordinando y monitoreando las actividades del proyecto - 16 años
16+ años liderando proyectos, asegurándose de que cumplan con los estándares/procedimientos establecidos - 16 años
Licenciatura en TI o campo relacionado o experiencia equivalente
Obligatorio
5 Años
Conocimiento de Big Data y Arquitectura de Datos y mejores prácticas de implementación
 
5 Años

Conocimientos de arquitectura e implementación de redes, seguridad y almacenamiento en plataformas cloud como Microsoft Azure - 5 Años
 
Experiencia con implementación de herramientas de datos y almacenamiento en plataformas en la nube como Microsoft Azure -5 años
 
Conocimiento de sistemas Data-centric para el análisis y visualización de datos, como Tableau, MicroStrategy, ArcGIS, Kibana, Oracle
 
10 Años
Experiencia en la consulta de fuentes de datos estructurados y no estructurados, incluidas bases de datos SQL y NoSQL: 5 años
 
Experiencia en el modelado y la ingesta de datos en y entre varios sistemas de datos mediante el uso de canalizaciones de datos -5 años
  
Experiencia en la implementación de productos de datos Apache como Spark, Sedona, Airflow, Atlas, NiFi, Hive, Impala - 5 años
Experiencia con API / Servicios Web (REST/SOAP) - 3 Años

Experiencia con procesamiento de eventos complejos y transmisión de datos en tiempo real - 3 años
 
Experiencia en la implementación y gestión de herramientas y módulos de ciencia de datos como JupyterHub - 3 años
Experiencia con ETL, procesamiento de datos, analítica utilizando lenguajes como Python, Java o R - 3 Años
 
Experiencia con Cloudera Data Platform - 3 años
 
16+ años planificando, coordinando y monitoreando las actividades del proyecto - 16 años
 
16+ años liderando proyectos, asegurándose de que cumplan con los estándares/procedimientos establecidos - 16 años
  
Licenciatura en TI o campo relacionado o experiencia equivalente
 
Obligatorio
Compensación: $70.00 - $75.00 por hora




(si ya tienes un currículum en Indeed)

O aplicar aquí.

* campos requeridos

Ubicación
Or
Or