Ingeniero De Datos Gcp

Detalles de la oferta

Formación
-Bachiller o egresado en ingeniería de sistemas, computación, informática, estadística, industrial o carreras afines.

Experiencia
-Mínimo 4 años en Business Intelligence en gestión e implementación de proyectos.
-Mínimo 4 años en explotación de bases de datos (Oracle o SQL).
-Mínimo 4 años en gestión bajo metodologías ágiles (Scrum).
-Experiencia en SQL, conocimiento en lenguajes de bases no relacionadas es un plus: MongoDB, Amazon DynamoDB.

Conocimientos
-Cloud Computing, Analytics y Big Data.
-Servicios AWS: Athena, Amazon Glue, PySpark, Amazon RedShift, Amazon S3, Amazon DMS.
-Servicios Google Cloud Platform: BigQuery, Cloud Dataflow, Cloud Composer, Cloud Storage, CloudWatch,
Cloud Functions, Dataproc.
-Diseño, construcción y mantenimiento de sistema de procesamiento de datos.
-Modelamiento de datos.
-Virtualización y despliegue en Cloud.
-Lenguaje SQL para consultas en BDS, Python, Glue, S3, Step Functions y Lambda.
-Nivel intermedio/alto en Java, Python/Scala (Tratamiento, Exposición de datos- APIs).

Competencias
-Comunicación.
-Habilidad de análisis.
-Pensamiento crítico.
-Enfoque en resultados.
-Trabajo en equipo

Habilidades
-Idioma inglés intermedio- avanzado
-Manejar múltiples lenguajes de programación para procesar y transformar datos.
-Manejar informes y reportes a las diversas áreas, entrega de dashboards, flujogramas y automatización de procesos operativos.
-Interés por las nuevas tendencias en el procesamiento de grandes volúmenes de Datos (Big Data).

Funciones

-Diseñar ingesta de datos y construcción de pipelines analíticos
-Gestionar equipo de consultores de data engineers
-Evaluar y seleccionar nuevos recursos consultores en Ingeniería de Datos

-Desplegar infraestructura a distintas Unidades de Negocio
-Desarrollar un proceso para transformar los datos de la empresa para que puedan ser analizados y utilizados por los científicos de datos.
- Diseñar, desarrollar, probar y desplegar procesos de extracción, transformación y carga (ETL) de datos estructurados y no estructurados a la nube (AWS, Google).
- Procesamiento de información de gran volumen utilizando tecnologías de Big Data en la nube (AWS, Google).
-Realizar consultas complejas sobre los datos, asegurando la accesibilidad y el buen funcionamiento del sistema.
-Optimizar el rendimiento del ecosistema de Big Data.
-Optimizar código Python para ejecutarlo en C o Java.
-Uso de herramientas de versionado e integración continua.


Salario Nominal: A convenir

Fuente: Kitempleo

Requisitos

Desarrollador Mobile - Remoto

Nuestro cliente, importante empresa líder en soluciones de software en Latinoamérica, ha solicitado nuestro servicio de HEADHUNTING/RECLUTAMIENTO & SELECCION...


Selectiva - Lima

Publicado a month ago

Programador

Para ser programador informático hay que tener las características siguientes: • Tener conocimientos de programación. • Ser analítico y lógico en el enfoque ...


Corporacion Slin Sac - Lima

Publicado a month ago

Técnico De Fumigación - Barranca

En CONTROL SAC nos encontramos en la búsqueda de un Técnico de Fumigación en Barranca. REQUISITOS. - Con o sin Experiencia en fumigación (capacitaciones pa...


Control De Saneamiento Ambiental - Lima

Publicado a month ago

Técnico Informático – Part Time

En Netpag, ofrecemos servicios especializados de cobranza empresarial. Nuestra cultura laboral se centra en el equilibrio entre vida y trabajo. Estamos en l...


Netpag Perú - Lima

Publicado a month ago

Built at: 2024-11-22T08:00:44.964Z