Postée il y a 4 jours
? Secteurs stratégiques : Banque d?investissement
? Démarrage : ASAP
?Objectifs et livrables
Infos Complémentaires : Récupérer les données issues de sources externes
? Utiliser la puissance du Datalake
? Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels.
?Caractéristiques de la mission:
Mise en ?uvre de la chaîne :
o d?ingestion de données,
o de validation de données,
o de croisement de données,
o de déversement dans le datalake des données enrichies
? Développer dans le respect des règles d?architecture définies
? Développer et documenter les user stories avec l?assistance du Product Owner.
? Produire les scripts de déploiement
? Prioriser les corrections des anomalies
? Assister les équipes d?exploitation
? Participer à la mise en ?uvre de la chaîne de delivery continue
? Automatiser les tests fonctionnels
Aspects Humains :
? Grande capacité à travailler dans une équipe, en mode Scrum / Kanban.
? Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail).
? Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.
Profil candidat:
?Compétences attendues :
Connaissances techniques :
? Plateforme et environnement GCP (indispensable)
? Environnement GKE
? Stockage : HDFS / GCS
? Traitement: Maitrise de l?écosystème Spark / Kafka / Scala
? Planification : Airflow / Composer
? Méthodologies : Scrum, Kanban, Git
? DWH : SQL, BigQuery, BigTable
? Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build