CarConnet

Ingeniero de Datos

Salario competitivo

Iniciar sesión para conocerlo

Habilidades

Python, SQL.

Modalidad

Remoto Global

Contratación

Tiempo completo

¿Inglés?

Sí, Básico

Responsabilidades

🤓 Como Ingeniero/a de Datos – Core Lakehouse, la empresa espera que realices las siguientes tareas:

  • Diseñar y construir pipelines de datos escalables a partir de fuentes como DynamoDB, RDS PostgreSQL, MongoDB, S3 y APIs
  • Contribuir en la definición e implementación de una arquitectura tipo Lakehouse combinando procesamiento batch y event-driven
  • Evaluar y probar herramientas como Snowflake, Redshift, Databricks, Glue, Iceberg, Delta Lake
  • Implementar estrategias de ingestión (real-time / microbatch), transformación y carga de datos considerando costos, seguridad y mantenimiento
  • Manejar datos multi-tenant y semi-estructurados (JSON, nested), asegurando trazabilidad y control por cliente
  • Construir tablas tipo raw, staging, analytics y procesos de MERGE / CDC / versionado
  • Integrar pipelines con herramientas de visualización y BI embebido como Hex o Sigma
  • Colaborar estrechamente con el CTO, TPM y futuros integrantes del equipo técnico

Requisitos

✨ Eres la persona que buscan si …

  • +4 años de experiencia construyendo pipelines productivos (Excluyente)
  • +4 años de experiencia con Python y librerías como Pandas, PySpark o SQLAlchemy
  • Experiencia en diseño e implementación de pipelines ELT/ETL desde múltiples orígenes (DB relacionales, NoSQL, APIs, S3)
  • Experiencia en arquitectura Lakehouse o Data Lake / DWH moderno
  • Conocimiento práctico de al menos una plataforma de datos cloud: Snowflake, Redshift, BigQuery o Databricks
  • Dominio avanzado de SQL (joins, CTEs, particiones, agregaciones complejas)
  • Conocimiento práctico de servicios AWS: Lambda, S3, Glue, EventBridge, Step Functions, CloudWatch
  • Experiencia en start-ups, interés en insertarse en un equipo dinámico, proactivo y con capacidad de autogestión.

💜 Estarán más entusiasmados contigo si además…

  • Tienes experiencia con ingestión usando Snowpipe, Kafka, o DynamoDB Streams
  • Conoces formatos columnar como Parquet, ORC, Avro
  • Has trabajado con herramientas de orquestación como Airflow o Step Functions
  • Tienes conocimientos en seguridad de datos y diseño multi-tenant (esquemas, roles, enmascaramiento)
  • Estás familiarizado/a con modelado dimensional o data vault


¿Estás buscando ofertas laborales?

En Talently publicamos las mejores ofertas del sector tech, suscríbete a nuestro boletín o crea tu perfil para estar al tanto de ellas.

Si eres desarrollador tech

Si buscas más que una certificación, si buscas oportunidades laborales hechas a medida para ti, es hora de unirte a Talently Match.

Regístrate ahora
Si eres empresa o reclutador

Ahorra tiempo y dinero con nuestra plataforma de IA que te conecta con el mejor talento tech de Latinoamérica. Optimiza tu búsqueda de talento hoy.

Contáctanos
Políticas de Privacidad

© 2024 Talently. todos los derechos reservados.