Responsabilidades
🤓 Como Data Engineer, la empresa espera que realices las siguientes tareas:
- Diseñar e implementar los flujos de datos / data pipelines que permitan extraer la data de múltiples fuentes de información y llevarlas de manera normalizada al Data Warehouse.
- Diseño, documentación e implementación de Data Lakes y streaming de datos.
Requisitos
✨ Eres la persona que buscan si …
- Cuentas con experiencia utilizando: Python, SQL y Spark.
- Conocimientos en ETL: SSIS, ODI, SPARK, Informática, KAFKA
- Al menos 2 años como desarrollador ETL (Diseño/análisis e implementación) y en herramientas de ETL como por ejemplo SSIS, ODI, NIFI o similar
- Capacidad de analizar la información (comportamiento de la información, explotación de la información para generar KPI´s y cubos de información)
- Al menos 2 años de experiencia en desarrollo de código enfocado en datos para Java y/o Scala
- Conocimiento en arquitectura para soporte de proceso de Big Data (preferentemente spark, hadoop)
- Experiencia en implementación de proyectos tipo data warehousing / data lakes
- Haber participado en implementaciones de punta a punta con metodologías ágiles
- Desarrollo de consultas y procedimientos de datos (primordialmente en lenguaje SQL y PLSQL) DML y DDL
- Participar en la identificación de problemas, aislamiento, resolución y comunicación dentro de los ambientes (DEV, QA, UAT y Producción).
- Haber usado algún sistema de tickets (JIRA, Trello, Redmine, etc.) para llevar control del progreso de tus tareas
- Conocimientos en IDE de desarrollo: Eclipse, intelij, Gitlab
💜 Estarán más entusiasmados contigo si además…
- Experiencia de integraciones de aplicaciones y datos con Kafka (Confluent)
- Conocimientos en desarrollo: JAVA, Java script
Beneficios
- Cobertura de salud
- Vacaciones Extra
- Horario Flexible
¿Estás buscando ofertas laborales?
En Talently publicamos las mejores ofertas del sector tech, suscríbete a nuestro boletín o crea tu perfil para estar al tanto de ellas.