Pular para o conteúdo principal

Data Engineer 3

Descrição da vaga

¡Sé parte de Stefanini!

En Stefanini somos más de 30.000 genios, conectados desde 40 países, haciendo lo que les apasiona y co-creando un futuro mejor.

¡Seguro no te quieres quedar fuera!


El Data Engineer es responsable de diseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL), asegurando la calidad, disponibilidad e integridad de la información dentro de la organización. Trabaja en la implementación y optimización de pipelines de datos en plataformas modernas, permitiendo el análisis avanzado, la minería de datos y el desarrollo de reportes y dashboards para los usuarios de negocio y analítica. Colabora estrechamente con otros equipos para garantizar que los datos sean accesibles y confiables a lo largo de todo su ciclo de vida.



Responsabilidades e atribuições

  1. Diseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL) utilizando Python.
  2. Implementar y optimizar pipelines de datos en plataformas como Cloudera y Snowflake para asegurar el flujo eficiente de información.
  3. Administrar y transformar grandes volúmenes de datos alojados en Data Lakes, habilitando su uso en reportes, dashboards y análisis avanzados.
  4. Desarrollar y optimizar consultas SQL de alto rendimiento para extracción, manipulación y modelado de datos.
  5. Colaborar con equipos de negocio y analítica para habilitar proyectos de minería de datos y soluciones de analítica avanzada.
  6. Velar por la calidad, disponibilidad e integridad de los datos a lo largo de su ciclo de vida.
  7. Proponer y ejecutar mejoras continuas en los procesos y arquitecturas de datos existentes.

Requisitos e qualificações

  • De 3 a 5 años de experiencia comprobable en ingeniería de datos o posiciones similares.
  • Capacidad analítica y orientación a la resolución de problemas.
  • Comunicación efectiva tanto con equipos técnicos como con áreas de negocio.
  • Autonomía y proactividad para proponer mejoras en procesos y flujos de datos.
  • Capacidad de trabajo en equipo multidisciplinario y bajo modalidad remota/híbrida.
  • Dominio en el desarrollo de procesos ETL utilizando Python.
  • Experiencia en la gestión y optimización de pipelines de datos en plataformas como Cloudera y Snowflake.
  • Fuertes conocimientos en manejo de grandes volúmenes de datos en Data Lakes.
  • Sólida experiencia en el uso de SQL para diseño de consultas complejas, tuning, y modelado relacional.
  • Experiencia en desarrollo de stored procedures, optimización de queries y modelado de datos en Snowflake ( será muy valorada).
  • Deseable: conocimientos básicos de Hadoop, Hive y Spark.
  • Deseable: conocimientos en analítica avanzada.

Etapas do processo

  1. Etapa 1: Cadastro
  2. Etapa 2: Presentación de CV
  3. Etapa 3: Entrevista
  4. Etapa 4: Confirmación de candidato
  5. Etapa 5: Onboarding
  6. Etapa 6: Contratação

Creer para co-crear

¿Buscas un lugar donde tus ideas brillen?

Con más de 38 años y una presencia global, en Stefanini transformamos el mañana juntos. Aquí, cada acción cuenta y cada idea puede marcar la diferencia. Únete a un equipo que valora la innovación, el respeto y el compromiso. 


Si eres una persona disruptiva, te mantienes en aprendizaje continuo y la innovación está en tu ADN, entonces somos lo que buscas. ¡Ven y construyamos juntos un futuro mejor!