Data Engineer Snowflake Dbt H/F

Trimane
Postée il y a 23 jours

Les missions du poste

Dans le cadre de sa forte croissance, TRIMANE recherche un(e) Data Engineer passionné(e) et expérimenté(e) pour rejoindre ses équipes projet. Vous serez au coeur de la conception, de la mise en oeuvre et de l'optimisation de nos pipelines de données dans un environnement moderne basé sur Snowflake, DBT, Qliksense, et AWS, tout en mettant en place des pratiques de CI/CD pour assurer des livraisons robustes et continues.

En collaboration avec les équipes Data Science, Business Intelligence et IT, vous jouerez un rôle clé dans le traitement, la transformation et la visualisation des données, pour permettre des décisions basées sur des insights fiables.

Vos missions :

- Concevoir et maintenir des pipelines de données :
Développer et optimiser les pipelines ETL/ELT sur Snowflake en utilisant DBT pour les transformations.
Automatiser le flux de données avec des outils de workflow (ex. Airflow).

- Modélisation et transformation des données :
Concevoir des modèles de données robustes, scalables et orientés business.
Assurer la qualité des données et le suivi de leur conformité (Data Quality & Governance).

- Développement de dashboards et visualisations :
Créer des visualisations avancées avec Qliksense en collaboration avec les équipes métier.

- Intégration avec AWS :
Configurer et maintenir des services AWS (S3, Lambda, Glue, Redshift, etc.) pour répondre aux besoins en data engineering.
Gérer les ressources cloud et optimiser les coûts.

- Mise en place de pratiques CI/CD :
Construire et automatiser les déploiements via des outils de CI/CD (ex. Jenkins, GitLab CI/CD, GitHub Actions).
Assurer une livraison continue des modèles DBT et des pipelines Snowflake.

- Support et veille technologique :
Assurer le suivi des incidents, le monitoring et le support des pipelines de production.
Réaliser une veille technologique pour identifier de nouvelles opportunités et améliorer les processus existants.

Profil :
Compétences techniques recherchées :

Base de données & Transformation des données :
Expertise sur Snowflake (architecture, optimisation, sécurisation).
Expérience avancée avec DBT (modélisation, macros, testing).

Visualisation de données :
Connaissance approfondie de Qlik Sense pour la création de tableaux de bord.

Cloud Computing :
Maîtrise des services AWS liés à la data (S3, Lambda, Glue, Athena, Redshift).
Compréhension des architectures serverless et distribuées.

CI/CD et outils de versionnement :
Familiarité avec les outils CI/CD (Git, Jenkins, GitLab CI, etc.).
Expérience avec les workflows de déploiement dans des environnements data.

Programmation et scripting :
Maîtrise de Python et/ou SQL.
Connaissance des frameworks d'orchestration de données (ex. Apache Airflow).

Compétences soft et organisationnelles :
Capacité à travailler en équipe et à collaborer avec des profils variés (Data Scientists, BI Analysts, DEVOPS).
Bonnes capacités d'analyse et de résolution de problèmes complexes.
Autonomie, rigueur et sens de la priorisation dans un contexte agile.

Formation et expérience :
Diplôme Bac +5 en Informatique, Big Data, Statistiques, ou équivalent.
Une expérience significative d'au moins 3 ans dans un rôle similaire.
Une certification Snowflake ou AWS serait un plus.

Lieu : Puteaux
Contrat : CDI

Les offres similaires

Stage Data Engineering (H/F)

Puteaux
Stage
Trimane
Postée il y a 2 jours

Tech Lead Talend H/F

Puteaux
CDI
Trimane
Postée il y a 47 jours
Postée il y a 47 jours
Partager l'offre à un ami
Accueil / Emploi / Emploi Puteaux / Emploi