Big Data Expert
MADRID, ES
¿Estas interesado/a en crecer como profesional, participando activamente en las decisiones del proyecto y hacerlo de la mano de un equipo experimentado y en un entorno de trabajo cercano y colaborativo? ¡Esta es tu oportunidad!
Si quieres trabajar para conseguir un mundo más sostenible y responsable con su entorno, en CAF Digital Services creemos y trabajamos en la movilidad sostenible, uno de los principales retos a los que se enfrenta la sociedad actual. En CAF Digital Services mejoramos la disponibilidad de los trenes y el bienestar de los pasajeros a través de la analítica de datos y la digitalización. Trabajamos con las tecnologías de mantenimiento y operación más innovadoras para maximizar la calidad de servicio de los trenes.
¿Qué te ofrecemos?
Ambiente de Trabajo Positivo: Podrás ser parte de un gran equipo altamente cualificado en el que estarás rodeado/a de personas con un gran espíritu colaborativo en el que te encontrarás un ambiente cercano y muy agradable.
Conciliación: Nuestro modelo híbrido te permitirá conciliar a la perfección la vida familiar y la vida laboral.
Aprendizaje y Autonomía: Te animaremos a que trabajes de manera autónoma, con el apoyo de nuestra formación, con un producto altamente tecnológico y en un mercado internacional.
Seguridad y estabilidad: CAF lleva más de 100 años trabajando en un camino que se extiende hacia el futuro, brindándote la seguridad que necesitas.
¿Qué te hará triunfar en esta posición?
- Poseer estudios de Ingeniería Informática.
- Tener experiencia en programación y arquitecturas BigData. Experiencia en nube pública (AWS, Azure, GCloud).
- Tener experiencia en trabajar con conjuntos de datos BigData, diseñar procesos ETL, para crear modelos de datos, consulta de datos, gestión de datos, limpieza de datos y vinculación de datos.
- Conocimientos en los siguientes lenguajes de programación: Java, Python, Scala, SQL.
- Saber trabajar en entorno cloud AWS y Databricks.
- Tener conocimientos en herramientas IaC como Terraform y aplicaciones BigData como Hive, Spark y Kafka.
- Tener conocimientos sobre bases de Datos relacionales y no relacionales y servicios asociados de AWS.
- Saber trabajar en en entornos ágiles y tener amplios conocimientos de testeo e integración continua.
- Tener buena capacidad analítica, creatividad y resolución de problemas.
- Capacidad para trabajar en equipo.
¿Cuál va a ser tu misión en la empresa?
Tu misión será la definición, desarrollo y puesta en producción de una arquitectura distribuida escalable para la ingesta, procesado y almacenamiento de grandes volúmenes de datos.
Responsabilidades de la posición:
- Realizar desarrollos con técnicas BigData de Ingestas, ETL, integraciones, despliegues, etc.
- Coordinación con el resto de compañeros del departamento de Ingeniería, para asegurar el correcto encaje dentro de la arquitectura de las aplicaciones de CAF DS.
- Trabajar con conjuntos de datos BigData, diseñar procesos ETL, para crear modelos de datos, consulta de datos, gestión de datos, limpieza de datos y vinculación de datos.
- Traducir casos de uso a requisitos técnicos, definiendo la arquitectura necesaria de la solución BigData.
- Codificación de aplicaciones BigData del tipo ETL, Batch y RT.
- Mantenimiento de infraestructura.
- Despliegue automatizado de Código, tanto para Aplicaciones (DevOps) como para Infraestructura.
- Capacidad de trabajar en equipo y actitud proactiva.
Por tanto, si te interesa trabajar en una empresa digital para conseguir un mundo más sostenible y responsable con su entorno, comprometida con la igualdad de oportunidades que cuenta con un Plan de Igualdad no lo dudes e inscríbete en la oferta ahora.