Make an impact
of your own.

Data Engineer Intern

Konfio

Konfio

Data Science
Miguel Hidalgo, Ecatepec de Morelos, Méx., Mexico
Posted on Tuesday, June 25, 2024

¿Quiénes somos?

¡Somos la empresa de tecnología financiera en México, que ha ayudado a más de 70k clientes a hacer sus planes realidad!

Nuestro propósito es apoyar las pequeñas y medianas empresas del país a cumplir sus sueños, a través de nuestras soluciones (financiamiento, tarjeta de crédito y pagos) para ayudar a resolver sus principales problemas, buscando ser el mejor aliado de los emprendedores, contribuyendo a la comunidad, el país y el planeta.

Tu reto
Desarrollar e implementar pipelines de datos robustos y escalables para satisfacer las necesidades de análisis y procesamiento de la organización colaborando estrechamente con otros equipos para comprender los requisitos de datos y proporcionar soluciones eficientes. Debe mantener y mejorar continuamente los sistemas de almacenamiento y procesamiento de datos, implementar prácticas de seguridad y cumplimiento, y automatizar procesos de ETL para garantizar la integridad, disponibilidad y eficiencia de los datos, facilitando la toma de decisiones informadas y el crecimiento del negocio.

Responsabilidades

  • Dirigir la transformación de datos según reglas técnicas y comerciales.
  • Diseñar y desarrollar pipelines de datos para extracción e ingestión de datos.
  • Gestionar el modelado de datos y la creación de ERMs.
  • Gestionar el dimensionamiento y pruebas de rendimiento para capas finales de consumo de datos.

¿Qué buscamos?

  • Recién egresados de carreras como ciencias de la computación, ingeniería, matemáticas, ingeniería de software o afín.
  • Conocimientos de SQL.
  • Conocimientos en Python.
  • Conocimientos en modelado de datos y diseño de arquitecturas.
  • Conocimientos en el diseño, construcción y mantenimiento de pipelines de datos para la ingesta, transformación y carga de datos desde diversas fuentes hacia sistemas de almacenamiento y análisis.
  • Conocimientos de técnicas y herramientas de ETL (Extract, Transform, Load), así como experiencia en la manipulación y procesamiento de grandes volúmenes de datos.