Pular para o conteúdo principal
Candidaturas encerradas

Data Engineer

Descrição da vaga

¡Sé parte de Stefanini!​


En Stefanini somos más de 30.000 genios, conectados desde 41 países, haciendo lo que les apasiona y co-creando un futuro mejor.​

Responsabilidades e atribuições

Ingeniero de dato más operativo, es decir limpieza de datos, calidad de datos, conciliaciones, reportes, identificar data que puedan eliminar entre otros. 


  • Diseñar, desarrollar y mantener canales de datos y procesos ETL para garantizar el flujo eficiente y confiable de datos desde diversas fuentes a nuestro almacén de datos.
  • Colaborar con científicos de datos, analistas y otras partes interesadas para comprender los requisitos de datos y traducirlos en soluciones técnicas.
  • Realizar modelado de datos y diseño de bases de datos para optimizar el almacenamiento y la recuperación de datos.
  • Implementar procesos de validación y calidad de los datos para garantizar la precisión e integridad de los datos.
  • Supervisar y solucionar problemas de sistemas y canalizaciones de datos para identificar y resolver cualquier problema o cuello de botella.
  • Desarrollar y mantener documentación para procesos, sistemas y mejores prácticas de ingeniería de datos.
  • Manténgase actualizado con las últimas tendencias y tecnologías en ingeniería de datos y recomiende mejoras para mejorar la infraestructura y los sistemas de datos.

Requisitos e qualificações

  • Programación: Buscamos experiencia en programación, preferiblemente en Python, aunque se valorará experiencia en Java u otros lenguajes. En el caso de Python, es un plus importante si estás familiarizado con librerías como Pandas, PySpark, NumPy, entre otras.
  • Conocimientos de ETL: Herramientas como Streamsets, IBM DataStage, Talend y Apache NiFi. Más allá de las herramientas específicas, buscamos a alguien que pueda demostrar conocimientos en el diseño, desarrollo y mantenimiento de procesos eficientes de extracción, transformación y carga (ETL).
  • Tecnologías de la nube: Experiencia en AWS, Azure, Google Cloud o plataformas similares. También es deseable el conocimiento de herramientas seguras de gestión de credenciales y secretos como CyberArk o Secrets Manager.
  • Plataformas de Analítica Unificada: Se requiere conocimiento de plataformas como AWS Glue o DataProc. Es altamente deseable contar con Databricks, y es un plus importante si tienes experiencia con Databricks, específicamente en Unity Catalog o Job Management, creando workflows en Databricks, Delta Lake.
  • Bases de datos y SQL: Experiencia en desarrollo de procedimientos almacenados, funciones, vistas lógicas y triggers. Optimización de consultas para mejorar el rendimiento en entornos de datos a gran escala.
  • Visualización y Reportes: Desarrollo de reportes interactivos, creación de dashboards personalizados y optimización de modelos de datos para mejorar el rendimiento de consultas, principalmente utilizando PowerBI. Se valora conocimiento de Tableau o herramientas similares.
  • Conocimiento de trabajo con metodología Scrum.

Etapas do processo

  1. Etapa 1: Cadastro
  2. Etapa 2: Entrevistas
  3. Etapa 3: Confirmación de candidato
  4. Etapa 4: Onboarding
  5. Etapa 5: Contratação

Creer para co-crear

¿Buscas un lugar donde tus ideas brillen?

Con más de 38 años y una presencia global, en Stefanini transformamos el mañana juntos. Aquí, cada acción cuenta y cada idea puede marcar la diferencia. Únete a un equipo que valora la innovación, el respeto y el compromiso. 


Si eres una persona disruptiva, te mantienes en aprendizaje continuo y la innovación está en tu ADN, entonces somos lo que buscas. ¡Ven y construyamos juntos un futuro mejor!