Empresa global de capital privado especializada en outsourcing de innovación, dedicada a la prestación de servicios de desarrollo y diseño de software, modernización de aplicaciones, RPA, machine learning y Big Data, entre otros.
Tareas generales:
● Relevamiento.
● Análisis, diseño y desarrollo de modelos de datos corporativos (Data Lake / Data warehouse) en tecnología GCP (Bigquery / Dataflow/ Kubernetes / Composer)
Requisitos:
● Formación académica, estudiante o graduado.
● Al menos 2/ 3 años de experiencia como Data Engineer.
● Desarrollo de pipelines en Dataflow (Python), creación de estructuras de tablas en Bigquery, optimización de consultas en BigQuery. Scheduling en Composer.
● Conocimientos de programación avanzados o intermedios en Python.
● Conocimiento de modelos dimensionales.
● Conocimientos de SQL.
● Conocimiento en tecnologías Cloud (AWS, Azure, GCP, etc)
● Conocimientos en Docker , Kubernetes Engine, Dataflow, Composer, Bigquery.
● Metodologías ágiles de desarrollo.
● CI/CD (no excluyente)
● Clean Code.
● Refactoring.
Beneficios:
● Obsequio por Nacimiento, Matrimonio y Graduación.
● Sorteos y Regalos en fechas especiales
● Clases de inglés y portugués.
¡Y más!
Great, just keep talking to your recruiter.
Apply for this position
If you are already talking to a recruiter from CONEXIONHR, DON'T FILL THE FORM.