Formación
-Bachiller o egresado en ingeniería de sistemas, computación, informática, estadística, industrial o carreras afines.
Experiencia
-Mínimo 4 años en Business Intelligence en gestión e implementación de proyectos.
-Mínimo 4 años en explotación de bases de datos (Oracle o SQL).
-Mínimo 4 años en gestión bajo metodologías ágiles (Scrum).
-Experiencia en SQL, conocimiento en lenguajes de bases no relacionadas es un plus: MongoDB, Amazon DynamoDB.
Conocimientos
-Cloud Computing, Analytics y Big Data.
-Servicios AWS: Athena, Amazon Glue, PySpark, Amazon RedShift, Amazon S3, Amazon DMS.
-Servicios Google Cloud Platform: BigQuery, Cloud Dataflow, Cloud Composer, Cloud Storage, CloudWatch,
Cloud Functions, Dataproc.
-Diseño, construcción y mantenimiento de sistema de procesamiento de datos.
-Modelamiento de datos.
-Virtualización y despliegue en Cloud.
-Lenguaje SQL para consultas en BDS, Python, Glue, S3, Step Functions y Lambda.
-Nivel intermedio/alto en Java, Python/Scala (Tratamiento, Exposición de datos- APIs).
Competencias
-Comunicación.
-Habilidad de análisis.
-Pensamiento crítico.
-Enfoque en resultados.
-Trabajo en equipo
Habilidades
-Idioma inglés intermedio- avanzado
-Manejar múltiples lenguajes de programación para procesar y transformar datos.
-Manejar informes y reportes a las diversas áreas, entrega de dashboards, flujogramas y automatización de procesos operativos.
-Interés por las nuevas tendencias en el procesamiento de grandes volúmenes de Datos (Big Data).
Funciones
-Diseñar ingesta de datos y construcción de pipelines analíticos
-Gestionar equipo de consultores de data engineers
-Evaluar y seleccionar nuevos recursos consultores en Ingeniería de Datos
-Desplegar infraestructura a distintas Unidades de Negocio
-Desarrollar un proceso para transformar los datos de la empresa para que puedan ser analizados y utilizados por los científicos de datos.
- Diseñar, desarrollar, probar y desplegar procesos de extracción, transformación y carga (ETL) de datos estructurados y no estructurados a la nube (AWS, Google).
- Procesamiento de información de gran volumen utilizando tecnologías de Big Data en la nube (AWS, Google).
-Realizar consultas complejas sobre los datos, asegurando la accesibilidad y el buen funcionamiento del sistema.
-Optimizar el rendimiento del ecosistema de Big Data.
-Optimizar código Python para ejecutarlo en C o Java.
-Uso de herramientas de versionado e integración continua.