Postée il y a 2 jours
Capgemini Engineering
Capgemini Engineering, leader mondial des services d'ingénierie, rassemble des équipes d'ingénieurs, de scientifiques et d'architectes pour aider les entreprises les plus innovantes dans le monde à libérer leur potentiel. Des voitures autonomes aux robots qui sauvent des vies, nos experts en technologies digitales et logicielles sortent des sentiers battus en fournissant des services uniques de R&D et d'ingénierie dans tous les secteurs d'activité. Rejoignez-nous pour une carrière pleine d'opportunités, où vous pouvez faire la différence et où aucun jour ne se ressemble.
Au coeur de notre centre de compétences à Paris, vous prendrez part à des projets d'envergure visant à accélerer l'intégration de l'IA dans le domaine de la Défense.
Vous serez responsable de :
· Concevoir et développer des solutions pour la collecte, l'organisation, le stockage et la modélisation des données
· Garantir l'accès aux différentes sources de données et de maintenir la qualité des données.
· Veiller à ce que les analystes de données et les data scientists de l'entreprise puissent accéder facilement aux données et les exploiter dans des conditions optimales
· Contribuer, sous la supervision opérationnelle de notre architecte, aux meilleures pratiques, aux normes, aux politiques, aux méthodes, aux outils et aux procédures liés au Cluster Big Data
· Contribuer à la mise en place d'une politique de données conforme aux réglementations en vigueur
· Assurer une veille technologique, notamment sur les langages de programmation utilisés afin d'aider à l'avancement des projets
* Diplôme d'Ingénieur / Bac +5 en informatique ou en science des données
* Niveau d'anglais courant
* Une expérience d'au moins 4 à 5 ans post-diplôme est requise.
* Expérience avec les services cloud (AWS, Azure, GCP) et les outils d'orchestration (Kubernetes, Docker) et Maîtrise de l'intégration continue (DEVOPS, MLOPS).
* Connaissance ETL, préparation et structuration de données, stockage de fichiers, bases de données. Exemples de technologies : Talend, HDFS, SSIS, Spark, Kafka, Hive
* Expérience dans la modélisation et dans l'exploitation des bases de données (SQL et NoSQL, Oracle, MongoDB)
* Utilisation d'outils de visualisation de type PowerBI, Tableau, QLIK
* Développement en JAVA, SCALA et Python
* Esprit d'équipe, adaptabilité
Le projet nécessite une habilitation Défense.
* Diplôme d'Ingénieur / Bac +5 en informatique ou en science des données
* Niveau d'anglais courant
* Une expérience d'au moins 4 à 5 ans post-diplôme est requise.
* Expérience avec les services cloud (AWS, Azure, GCP) et les outils d'orchestration (Kubernetes, Docker) et Maîtrise de l'intégration continue (DEVOPS, MLOPS).
* Connaissance ETL, préparation et structuration de données, stockage de fichiers, bases de données. Exemples de technologies : Talend, HDFS, SSIS, Spark, Kafka, Hive
* Expérience dans la modélisation et dans l'exploitation des bases de données (SQL et NoSQL, Oracle, MongoDB)
* Utilisation d'outils de visualisation de type PowerBI, Tableau, QLIK
* Développement en JAVA, SCALA et Python
* Esprit d'équipe, adaptabilité
Le projet nécessite une habilitation Défense.