Rol : Arquitecto de Big Data Consultor de TI Master
Cliente : Estado de DC
Ubicación : Washington, D.C.
Descripción de funciones
Este rol proporcionará experiencia para respaldar el desarrollo de una arquitectura de sistema de Big Data / Data Lake que respalde las operaciones de datos empresariales para el gobierno del Distrito de Columbia, incluidos los proyectos de Internet de las cosas (IoT) / Smart City, el almacén de datos empresariales, el portal de datos abiertos y las aplicaciones de ciencia de datos. Esta es una oportunidad emocionante para trabajar como parte de un equipo de datos senior colaborativo que apoya al director de datos de DC. Esta arquitectura incluye Databricks, herramientas de la plataforma Microsoft Azure (incluidos Data Lake, Synapse), herramientas de la plataforma Apache (incluidos Hadoop, Hive, Impala, Spark, Sedona, Airflow) y herramientas de desarrollo de canalización de datos/ETL (incluidos Streamsets, Apache NiFi, Azure Data Factory). La plataforma estará diseñada para su uso e integración en todo el Distrito con otras herramientas de OCTO Enterprise Data, como Esri, Tableau, MicroStrategy, API Gateways y bases de datos y herramientas de integración de Oracle.
Responsabilidades:
1. Coordina la gestión de proyectos de TI, ingeniería, mantenimiento, control de calidad y gestión de riesgos.
2. Planifica, coordina y supervisa las actividades del proyecto.
3. Desarrolla aplicaciones técnicas para apoyar a los usuarios.
4. Desarrolla, implementa, mantiene y hace cumplir normas y procedimientos documentados para el diseño, desarrollo, instalación, modificación y documentación de los sistemas asignados.
5. Proporciona capacitación para productos y procedimientos del sistema.
6. Realiza actualizaciones de aplicaciones.
7. Realiza, monitorea, mantiene o genera informes sobre bases de datos en tiempo real, comunicaciones de datos en serie y redes en tiempo real, y aplicaciones gráficas y lógicas en tiempo real.
8. Soluciona problemas.
9. Garantiza que el ciclo de vida del proyecto cumpla con los estándares y procedimientos del Distrito.
Requisitos mínimos de educación/certificación:
Licenciatura en Tecnología de la Información o campo relacionado o experiencia equivalente
Habilidades
Experiencia en la implementación de plataformas de almacenamiento y análisis de Big Data como Databricks y Data Lakes
Conocimiento de Big Data y Arquitectura de Datos y mejores prácticas de implementación - 5 años
Conocimientos de arquitectura e implementación de redes, seguridad y almacenamiento en plataformas cloud como Microsoft Azure - 5 Años
Experiencia con implementación de herramientas de datos y almacenamiento en plataformas en la nube como Microsoft Azure - 5 años
Conocimiento de sistemas Data-centric para el análisis y visualización de datos, como Tableau, MicroStrategy, ArcGIS, Kibana, Oracle - 10 Años
Experiencia en la consulta de fuentes de datos estructurados y no estructurados, incluidas bases de datos SQL y NoSQL: 5 años
Experiencia en el modelado y la ingesta de datos en y entre varios sistemas de datos mediante el uso de tuberías de datos - 5 años
Experiencia en la implementación de productos de datos Apache como Spark, Sedona, Airflow, Atlas, NiFi, Hive, Impala - 5 años
Experiencia con API / Servicios Web (REST/SOAP) - 3 Años
Experiencia con procesamiento de eventos complejos y transmisión de datos en tiempo real - 3 años
Experiencia en la implementación y gestión de herramientas y módulos de ciencia de datos como JupyterHub - 3 años
Experiencia con ETL, procesamiento de datos, analítica utilizando lenguajes como Python, Java o R - 3 Años
Experiencia con Cloudera Data Platform - 3 años
16+ años planificando, coordinando y monitoreando las actividades del proyecto - 16 años
16+ años liderando proyectos, asegurándose de que cumplan con los estándares/procedimientos establecidos - 16 años
Licenciatura en TI o campo relacionado o experiencia equivalente
Obligatorio
5 Años
Conocimiento de Big Data y Arquitectura de Datos y mejores prácticas de implementación
5 Años
Conocimientos de arquitectura e implementación de redes, seguridad y almacenamiento en plataformas cloud como Microsoft Azure - 5 Años
Experiencia con implementación de herramientas de datos y almacenamiento en plataformas en la nube como Microsoft Azure -5 años
Conocimiento de sistemas Data-centric para el análisis y visualización de datos, como Tableau, MicroStrategy, ArcGIS, Kibana, Oracle
10 Años
Experiencia en la consulta de fuentes de datos estructurados y no estructurados, incluidas bases de datos SQL y NoSQL: 5 años
Experiencia en el modelado y la ingesta de datos en y entre varios sistemas de datos mediante el uso de canalizaciones de datos -5 años
Experiencia en la implementación de productos de datos Apache como Spark, Sedona, Airflow, Atlas, NiFi, Hive, Impala - 5 años
Experiencia con API / Servicios Web (REST/SOAP) - 3 Años
Experiencia con procesamiento de eventos complejos y transmisión de datos en tiempo real - 3 años
Experiencia en la implementación y gestión de herramientas y módulos de ciencia de datos como JupyterHub - 3 años
Experiencia con ETL, procesamiento de datos, analítica utilizando lenguajes como Python, Java o R - 3 Años
Experiencia con Cloudera Data Platform - 3 años
16+ años planificando, coordinando y monitoreando las actividades del proyecto - 16 años
16+ años liderando proyectos, asegurándose de que cumplan con los estándares/procedimientos establecidos - 16 años
Licenciatura en TI o campo relacionado o experiencia equivalente
Obligatorio
Cliente : Estado de DC
Ubicación : Washington, D.C.
Descripción de funciones
Este rol proporcionará experiencia para respaldar el desarrollo de una arquitectura de sistema de Big Data / Data Lake que respalde las operaciones de datos empresariales para el gobierno del Distrito de Columbia, incluidos los proyectos de Internet de las cosas (IoT) / Smart City, el almacén de datos empresariales, el portal de datos abiertos y las aplicaciones de ciencia de datos. Esta es una oportunidad emocionante para trabajar como parte de un equipo de datos senior colaborativo que apoya al director de datos de DC. Esta arquitectura incluye Databricks, herramientas de la plataforma Microsoft Azure (incluidos Data Lake, Synapse), herramientas de la plataforma Apache (incluidos Hadoop, Hive, Impala, Spark, Sedona, Airflow) y herramientas de desarrollo de canalización de datos/ETL (incluidos Streamsets, Apache NiFi, Azure Data Factory). La plataforma estará diseñada para su uso e integración en todo el Distrito con otras herramientas de OCTO Enterprise Data, como Esri, Tableau, MicroStrategy, API Gateways y bases de datos y herramientas de integración de Oracle.
Responsabilidades:
1. Coordina la gestión de proyectos de TI, ingeniería, mantenimiento, control de calidad y gestión de riesgos.
2. Planifica, coordina y supervisa las actividades del proyecto.
3. Desarrolla aplicaciones técnicas para apoyar a los usuarios.
4. Desarrolla, implementa, mantiene y hace cumplir normas y procedimientos documentados para el diseño, desarrollo, instalación, modificación y documentación de los sistemas asignados.
5. Proporciona capacitación para productos y procedimientos del sistema.
6. Realiza actualizaciones de aplicaciones.
7. Realiza, monitorea, mantiene o genera informes sobre bases de datos en tiempo real, comunicaciones de datos en serie y redes en tiempo real, y aplicaciones gráficas y lógicas en tiempo real.
8. Soluciona problemas.
9. Garantiza que el ciclo de vida del proyecto cumpla con los estándares y procedimientos del Distrito.
Requisitos mínimos de educación/certificación:
Licenciatura en Tecnología de la Información o campo relacionado o experiencia equivalente
Habilidades
Experiencia en la implementación de plataformas de almacenamiento y análisis de Big Data como Databricks y Data Lakes
Conocimiento de Big Data y Arquitectura de Datos y mejores prácticas de implementación - 5 años
Conocimientos de arquitectura e implementación de redes, seguridad y almacenamiento en plataformas cloud como Microsoft Azure - 5 Años
Experiencia con implementación de herramientas de datos y almacenamiento en plataformas en la nube como Microsoft Azure - 5 años
Conocimiento de sistemas Data-centric para el análisis y visualización de datos, como Tableau, MicroStrategy, ArcGIS, Kibana, Oracle - 10 Años
Experiencia en la consulta de fuentes de datos estructurados y no estructurados, incluidas bases de datos SQL y NoSQL: 5 años
Experiencia en el modelado y la ingesta de datos en y entre varios sistemas de datos mediante el uso de tuberías de datos - 5 años
Experiencia en la implementación de productos de datos Apache como Spark, Sedona, Airflow, Atlas, NiFi, Hive, Impala - 5 años
Experiencia con API / Servicios Web (REST/SOAP) - 3 Años
Experiencia con procesamiento de eventos complejos y transmisión de datos en tiempo real - 3 años
Experiencia en la implementación y gestión de herramientas y módulos de ciencia de datos como JupyterHub - 3 años
Experiencia con ETL, procesamiento de datos, analítica utilizando lenguajes como Python, Java o R - 3 Años
Experiencia con Cloudera Data Platform - 3 años
16+ años planificando, coordinando y monitoreando las actividades del proyecto - 16 años
16+ años liderando proyectos, asegurándose de que cumplan con los estándares/procedimientos establecidos - 16 años
Licenciatura en TI o campo relacionado o experiencia equivalente
Obligatorio
5 Años
Conocimiento de Big Data y Arquitectura de Datos y mejores prácticas de implementación
5 Años
Conocimientos de arquitectura e implementación de redes, seguridad y almacenamiento en plataformas cloud como Microsoft Azure - 5 Años
Experiencia con implementación de herramientas de datos y almacenamiento en plataformas en la nube como Microsoft Azure -5 años
Conocimiento de sistemas Data-centric para el análisis y visualización de datos, como Tableau, MicroStrategy, ArcGIS, Kibana, Oracle
10 Años
Experiencia en la consulta de fuentes de datos estructurados y no estructurados, incluidas bases de datos SQL y NoSQL: 5 años
Experiencia en el modelado y la ingesta de datos en y entre varios sistemas de datos mediante el uso de canalizaciones de datos -5 años
Experiencia en la implementación de productos de datos Apache como Spark, Sedona, Airflow, Atlas, NiFi, Hive, Impala - 5 años
Experiencia con API / Servicios Web (REST/SOAP) - 3 Años
Experiencia con procesamiento de eventos complejos y transmisión de datos en tiempo real - 3 años
Experiencia en la implementación y gestión de herramientas y módulos de ciencia de datos como JupyterHub - 3 años
Experiencia con ETL, procesamiento de datos, analítica utilizando lenguajes como Python, Java o R - 3 Años
Experiencia con Cloudera Data Platform - 3 años
16+ años planificando, coordinando y monitoreando las actividades del proyecto - 16 años
16+ años liderando proyectos, asegurándose de que cumplan con los estándares/procedimientos establecidos - 16 años
Licenciatura en TI o campo relacionado o experiencia equivalente
Obligatorio
Compensación: $70.00 - $75.00 por hora
Sobre nosotros
AHU Technologies INC. es una empresa de consultoría de TI y dotación de personal permanente que satisface y supera las necesidades cambiantes de servicios de TI de las principales corporaciones dentro de los Estados Unidos. Hemos estado brindando soluciones de TI a clientes de diferentes sectores de la industria, ayudándolos a controlar los costos y liberar recursos internos para enfocarse en temas estratégicos.
AHU Technologies INC. fue cofundada por jóvenes emprendedores tecno-comerciales visionarios que siguen siendo nuestros principales consultores. Al mantener relaciones de trabajo con un grupo de otros consultores independientes altamente calificados, tenemos un número creciente de recursos disponibles para proyectos de desarrollo. Actualmente estamos trabajando en varios proyectos como entretenimiento multimedia, soluciones ERP, almacenamiento de datos, aplicaciones web, telecomunicaciones y medicina para nuestros clientes en todo el mundo.
(si ya tienes un currículum en Indeed)