Data Engineer 3
Descrição da vaga
¡Sé parte de Stefanini!
En Stefanini somos más de 30.000 genios, conectados desde 40 países, haciendo lo que les apasiona y co-creando un futuro mejor.
¡Seguro no te quieres quedar fuera!
El Data Engineer es responsable de diseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL), asegurando la calidad, disponibilidad e integridad de la información dentro de la organización. Trabaja en la implementación y optimización de pipelines de datos en plataformas modernas, permitiendo el análisis avanzado, la minería de datos y el desarrollo de reportes y dashboards para los usuarios de negocio y analítica. Colabora estrechamente con otros equipos para garantizar que los datos sean accesibles y confiables a lo largo de todo su ciclo de vida.
Responsabilidades e atribuições
- Diseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL) utilizando Python.
- Implementar y optimizar pipelines de datos en plataformas como Cloudera y Snowflake para asegurar el flujo eficiente de información.
- Administrar y transformar grandes volúmenes de datos alojados en Data Lakes, habilitando su uso en reportes, dashboards y análisis avanzados.
- Desarrollar y optimizar consultas SQL de alto rendimiento para extracción, manipulación y modelado de datos.
- Colaborar con equipos de negocio y analítica para habilitar proyectos de minería de datos y soluciones de analítica avanzada.
- Velar por la calidad, disponibilidad e integridad de los datos a lo largo de su ciclo de vida.
- Proponer y ejecutar mejoras continuas en los procesos y arquitecturas de datos existentes.
Requisitos e qualificações
- De 3 a 5 años de experiencia comprobable en ingeniería de datos o posiciones similares.
- Capacidad analítica y orientación a la resolución de problemas.
- Comunicación efectiva tanto con equipos técnicos como con áreas de negocio.
- Autonomía y proactividad para proponer mejoras en procesos y flujos de datos.
- Capacidad de trabajo en equipo multidisciplinario y bajo modalidad remota/híbrida.
- Dominio en el desarrollo de procesos ETL utilizando Python.
- Experiencia en la gestión y optimización de pipelines de datos en plataformas como Cloudera y Snowflake.
- Fuertes conocimientos en manejo de grandes volúmenes de datos en Data Lakes.
- Sólida experiencia en el uso de SQL para diseño de consultas complejas, tuning, y modelado relacional.
- Experiencia en desarrollo de stored procedures, optimización de queries y modelado de datos en Snowflake ( será muy valorada).
- Deseable: conocimientos básicos de Hadoop, Hive y Spark.
- Deseable: conocimientos en analítica avanzada.
Etapas do processo
- Etapa 1: Cadastro
- Etapa 2: Presentación de CV
- Etapa 3: Entrevista
- Etapa 4: Confirmación de candidato
- Etapa 5: Onboarding
- Etapa 6: Contratação
Creer para co-crear
¿Buscas un lugar donde tus ideas brillen?
Con más de 38 años y una presencia global, en Stefanini transformamos el mañana juntos. Aquí, cada acción cuenta y cada idea puede marcar la diferencia. Únete a un equipo que valora la innovación, el respeto y el compromiso.
Si eres una persona disruptiva, te mantienes en aprendizaje continuo y la innovación está en tu ADN, entonces somos lo que buscas. ¡Ven y construyamos juntos un futuro mejor!
Conoce más sobre nosotros