Pular para o conteúdo principal
Candidaturas encerradas

Data Engineer (AVC)

Descrição da vaga

¡Sé parte de Stefanini!​


En Stefanini somos más de 30.000 genios, conectados desde 41 países, haciendo lo que les apasiona y co-creando un futuro mejor.​

Responsabilidades e atribuições

  • Diseña, construye y opera plataformas y pipelines de datos escalables, seguros y auditables en Azure para casos de uso bancarios. Es responsable de la ingesta, estandarización, modelado, performance y confiabilidad del dato, habilitando analítica avanzada/ML y reporting bajo prácticas DataOps. 

Responsabilidades Clave:

  • Diseñar arquitectura de datos en Azure (ingesta → raw → curated → serving) con enfoque lakehouse y/o DWH según el caso.
  • Construir pipelines batch y near-real-time con ADF/Synapse Pipelines (y/o Databricks) incluyendo cargas incrementales, CDC, y manejo de errores.
  • Modelar datos (dimensional y/o data vault, según dominio) para consumo por el Data Scientist, BI y riesgos/compliance.
  • Implementar transformaciones y validaciones usando SQL, Python (pandas) y KNIME cuando se requiera (workflows reproducibles, parametrizados).
  • Optimizar performance/costos: particionamiento, file formats (Parquet/Delta), compaction, caching, tuning de queries y cargas.
  • Asegurar observabilidad: métricas, logs, alertas, SLAs/SLOs y “runbooks” operacionales.
  • Implementar estándares de seguridad: RBAC, Key Vault, managed identities, private endpoints, segregación por entornos.
  • Colaborar con Gobernanza para linaje, catálogo, retención y clasificación; y con el Data Scientist para feature datasets y scoring pipelines.
  • Definir y mantener CI/CD para artefactos de datos (infra como código, pipelines, notebooks, tests).

Requisitos e qualificações

Habilidades Técnicas Requeridas:

  • Azure Data
  • ADLS Gen2, Azure SQL / MI, Synapse Analytics
  • Azure Data Factory / Synapse Pipelines.
  • Azure Databricks (preferible) y fundamentos de Spark (plus).
  • Mensajería/streaming: Event Hubs / Kafka (plus según necesidad).

Ingeniería de Datos

  • SQL avanzado (modelado, performance, ventanas, optimización).
  • Python (pandas, pyarrow, testing), notebooks.
  • Data formats: Parquet/Delta; particionamiento y esquemas evolutivos.
  • Orquestación y automatización; control de versiones (Git) y CI/CD (Azure DevOps).

Calidad & Operación

  • Pruebas de datos (Great Expectations o equivalente), reconciliaciones, DQ rules.
  • Observabilidad: logging/monitoring (Application Insights/Log Analytics), alertas Entregables Típicos.
  • Pipelines productivos con SLAs (ingesta, transformación, serving).
  • Data models (curated/semantic), data marts y datasets de features.
  • Documentación técnica (arquitectura, diccionario, runbooks, diagramas).
  • Framework de pruebas, monitoreo y control de costos confiabilidad del pipeline, modelos de datos, performance, operación y CI/CD.

Etapas do processo

  1. Etapa 1: Cadastro
  2. Etapa 2: Entrevistas
  3. Etapa 3: Confirmación de candidato
  4. Etapa 4: Onboarding
  5. Etapa 5: Contratação

Creer para co-crear

¿Buscas un lugar donde tus ideas brillen?

Con más de 38 años y una presencia global, en Stefanini transformamos el mañana juntos. Aquí, cada acción cuenta y cada idea puede marcar la diferencia. Únete a un equipo que valora la innovación, el respeto y el compromiso. 


Si eres una persona disruptiva, te mantienes en aprendizaje continuo y la innovación está en tu ADN, entonces somos lo que buscas. ¡Ven y construyamos juntos un futuro mejor!