L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 272 résultats.
Offre d'emploi
Lead Data Engineer – Azure / Snowflake / dbt
Publiée le
Azure
DBT
Snowflake
2 ans
Paris, France
Télétravail partiel
Contexte & Objectif de la mission Dans le cadre d’un projet stratégique de modernisation des plateformes de données, nous recherchons un Lead Data Engineer capable de piloter la conception, l’industrialisation et l’optimisation des flux data sur Azure et Snowflake. Vous interviendrez en tant que référent technique au sein de l’équipe Data Engineering, en apportant votre expertise sur les architectures cloud, la modélisation, la performance et les bonnes pratiques CI/CD. Rôles & Responsabilités Concevoir, développer et optimiser des pipelines de données sous Snowflake / Snowpark. Orchestrer les flux via Azure Data Factory et dbt (Python) pour des traitements fiables et scalables. Intégrer et exposer des APIs pour l’ingestion, la transformation et la diffusion des données. Déployer et administrer l’infrastructure as code via Terraform. Implémenter et superviser les pipelines CI/CD sous Azure DevOps. Automatiser les tâches récurrentes avec PowerShell et Azure CLI. Encadrer la modélisation des données (3NF, étoile) et la mise en œuvre du modèle d’entreprise et du Data Warehouse. Garantir la gouvernance des données, la qualité, la sécurité (RGPD) et le FinOps des plateformes. Assurer la documentation, la supervision et la coordination technique avec les équipes métiers et IT. Environnement technique Azure – Snowflake – dbt (Python/Snowpark) – Azure Data Factory – Terraform – Azure DevOps – PowerShell – Azure CLI – PowerDesigner – Git
Mission freelance
Data enginner SQL UNIX TEMPS PARTIEL
Publiée le
SQL
UNIX
3 mois
250-280 €
Île-de-France, France
Télétravail partiel
Vous renforcerez notre équipe de RUN et de maintien en conditions opérationnelles sur nos solutions. Vos activités principales sont : Générer des fichiers à intégrer en base à partir des portails opérateurs Intégrer en base, les données de parc et de facturation Lancer des batch et suivre les traitements Effectuer des requêtes pour extraction, injection ou correction en masse Mettre à jour les référentiels et contrôler la cohérence des données présentées dans l’applicatif pour nos clients Contrôle des intégrations automatisées
Offre d'emploi
Data Engineer (H/F)
Publiée le
ServiceNow
Snowflake
6 mois
54k-64k €
400-470 €
Paris, France
Télétravail partiel
CITECH recrute ! 👌 ✨ Vous souhaitez mettre vos talents au service d’un groupe de renom dans le secteur de l’hôtellerie ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Data Engineer (H/F) pour rejoindre une équipe dynamique. 👈 Vous interviendrez dans le cadre du renforcement des capacités analytiques autour des processus ITSM afin de mettre en œuvre une connectivité entre ServiceNow et Snowflake. Cette mission vise à exploiter les données de ServiceNow ITSM (incidents, demandes, changements, problèmes…) pour alimenter des cas d’usage analytiques à destination de plusieurs départements internes (IT, qualité, gouvernance, opérations…). 🙌🔽 Vos principales missions seront les suivantes : 🔽🙌 🔸 Établir et sécuriser une connexion technique entre ServiceNow ITSM et Snowflake 🔸 Extraire et charger les données des modules ITSM suivants : Request Management, Incident Management, Change Management, Problem Management 🔸 Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale) 🔸 Structurer les données dans Snowflake selon une logique modulaire, réutilisable et exploitable à des fins analytiques 🔸 Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité 🔸 Documenter le pipeline, les schémas de données et les points de reprise
Mission freelance
Développeur / Data Engineer Observabilité h/f
Publiée le
Azure
DevOps
Grafana
6 mois
400-600 €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre client recherche un Développeur Senior disposant d’une double expertise en développement backend et en ingénierie des données, pour rejoindre son équipe dédiée à l’observabilité. Concevoir, développer et maintenir des services backend (Python, PySpark) et des APIs orientées observabilité Construire et orchestrer des pipelines de données robustes (Airflow, Spark, Python) Garantir la qualité, la sécurité et la gouvernance des flux (tests, lineage, monitoring) Gérer les données via PostgreSQL, ADLS, Blob Storage, ElasticSearch Développer des dashboards et visualisations avancées (Grafana, ELK) Collaborer étroitement avec les équipes produit et développement (Agile/Scrum)
Mission freelance
Data Engineer / Analytics Engineer Microsoft Fabric
Publiée le
Microsoft Fabric
6 mois
450-560 €
Paris, France
Télétravail partiel
Contexte : Notre client, un grand établissement financier, recherche un Data / Analytics Engineer spécialisé sur l’écosystème Microsoft Fabric pour intervenir dans un projet stratégique de migration de Synapse vers Fabric. Le contexte fonctionnel est très novateur, il permet le suivi de l'ensemble du processus d'achat de l'entreprise. La mission, d’une durée initiale de plus de 6 mois et reconductible, s’inscrit dans un programme long terme de modernisation des plateformes data & analytics. Missions principales : Le consultant interviendra en tant que Data Engineer / Analytics Engineer et aura pour responsabilités : Concevoir, développer et maintenir des pipelines de données dans Azure Data Factory et Microsoft Fabric Data Factory. Accompagner la migration des pipelines Synapse vers Fabric Data Factory. Migrer les workloads SQL Serverless de Synapse vers un Lakehouse Fabric. Participer à la modélisation des données et à l’optimisation des flux pour des usages analytiques et reporting. Contribuer à l’industrialisation et à la mise en place de bonnes pratiques (performance, qualité, sécurité). Collaborer avec les équipes métiers et BI pour assurer la bonne alimentation des modèles Power BI. Rédiger la documentation technique et transférer les compétences aux équipes internes. Compétences recherchées : Compétences principales (indispensables) : Microsoft Fabric (Data Factory, Lakehouse, OneLake). Azure Data Factory (ADF). Synapse Analytics (pipelines & SQL Serverless). Power BI (modélisation, intégration des datasets). Compétences secondaires (atouts) : Python pour l’automatisation et la transformation des données. PowerShell pour le scripting et l’automatisation des environnements Azure. Profil recherché : Minimum 3 à 5 ans d’expérience en tant que Data Engineer / Analytics Engineer. Solide expérience dans la migration ou la mise en place de solutions cloud data Microsoft. Expérience dans des environnements grands comptes ou secteur financier appréciée. Capacité à travailler en mode projet (agilité, collaboration avec plusieurs équipes). Bonnes compétences de communication et capacité à vulgariser les enjeux techniques auprès des métiers. Informations pratiques : Lieu : Paris / Île-de-France. Télétravail : jusqu’à 3 jours par semaine. Durée : mission longue (> 6 mois), reconductible. Démarrage : dès que possible. TJ : 550€ Merci de faire parvenir vos CV à :
Mission freelance
DATA Engineer - AWS(H/F)
Publiée le
AWS Cloud
Azure DevOps
Data Lake
1 an
510-540 €
Île-de-France, France
Télétravail partiel
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Mission freelance
Data Engineer - access management on Snowflake
Publiée le
Snowflake
3 ans
400-550 €
Île-de-France, France
Télétravail partiel
Adminisitration Snowflake - Confirmé - Impératif RBAC - Confirmé - Impératif GITLAB - Confirmé - Important TERRAFORM - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Au sein d'une Tribe Data Platform, l'équipe DATA « Data Platform Protect » (DPP) fournit des produits et des services pour gérer les accès et la protection des données sensibles (snowflake, app streamlit, etc.). Sous la responsabilité du Tech Lead Data Platform, le/la Data Engineer Snowflake « DPP » aura donc la charge de… Déployer un nouveau framework RBAC auprès des différentes Feature Teams DATA (+ 10 FT) sur leurs projets Gitlab gérant les ressources Snowflake Communiquer avec les TechLeads des Feature Teams Participer aux activités et évènements transverses de la Feature Team/Tribe, du pôle ENGINEERING ou DATA.
Mission freelance
Data Engineer - GCP
Publiée le
Google Cloud Platform (GCP)
6 mois
500-650 €
Paris, France
Télétravail 100%
Nous recherchons un Data Engineer GCP expérimenté pour rejoindre une équipe dynamique en freelance afin de soutenir des projets critiques de migration de données et d'infrastructure. Il s'agit d'une opportunité entièrement à distance, idéale pour des professionnels pratiques passionnés par la construction de pipelines ETL/ELT évolutifs et de solutions de stockage de données dans un environnement rapide. Responsabilités: Concevoir, construire et maintenir des pipelines ETL/ELT pour l'ingestion, la transformation et le chargement de données dans des entrepôts de données cloud, en traitant efficacement de grands volumes de données. Implémenter et gérer des solutions de stockage de données, en garantissant des performances élevées, une évolutivité et une fiabilité dans des environnements de production. Déployer l'infrastructure en tant que code (IaC) à l'aide de Terraform pour provisionner et gérer les ressources GCP. Développer et orchestrer des workflows à l'aide de Cloud Composer ou Apache Airflow pour la planification et l'automatisation. Exploiter Apache Beam/Dataflow ou Spark/Dataproc pour le traitement distribué de données, y compris les architectures batch, micro-batch et streaming en temps réel. Rédiger des requêtes SQL avancées et optimiser les interactions avec les bases de données relationnelles, en intégrant la capture de changements de données (CDC) le cas échéant. Collaborer sur des migrations de données, en assurant des transitions fluides avec un accent sur la qualité des données, les tests et les pratiques modernes de DataOps (par exemple, déploiements de pipelines, ingénierie de qualité). Intégrer avec l'écosystème plus large de l'ingénierie de données, en recommandant et adoptant des outils au besoin pour améliorer l'efficacité. Communiquer efficacement avec les parties prenantes internes et les partenaires externes pour aligner sur les exigences et livrer des solutions à fort impact.
Mission freelance
Data Engineer
Publiée le
Machine Learning
Microsoft Power BI
Python
12 mois
650-680 €
64000, Pau, Nouvelle-Aquitaine
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte Dans le cadre du programme de transformation digitale, l’équipe, basée à Pau, se renforce. Objectif : améliorer la qualité, l’accessibilité et l’exploitation des données opérationnelles via des pipelines robustes, de la gouvernance et des cas d’usage innovants en IA / IA Générative. 🛠️ Missions principales Data Engineering : Définir les processus de gestion de données et d’information des outils digitaux. Développer et maintenir des pipelines robustes (ETL temps réel & batch). Automatiser les traitements (Python ou équivalent). Participer à la modélisation et standardisation des données. Qualité & Gouvernance des données : Développer et maintenir des outils de contrôle qualité (dashboards, alerting, audits). Mettre en place le processus de data management pour les données temps réel (WITSML, WellView). Représenter le groupe dans les forums OSDU / WITSML / RTSC. Data Science & IA : Contribuer à l’intégration de solutions IA et IA Générative pour les cas d’usage métier. Expérimenter, customiser et superviser des modèles ou solutions IA. Accompagnement & Support : Support utilisateurs et animation de la conduite du changement. Supervision des tâches administratives liées aux outils digitaux.
Offre d'emploi
Tech Lead Data Engineer
Publiée le
Apache Spark
Azure
Azure DevOps
3 ans
Île-de-France, France
Télétravail partiel
Le Tech Lead Data Engineer aura pour missions: Assurer un leadership technique auprès des équipes de développement. Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. Participer activement aux phases de conception, développement et tests. Porter la vision technique au sein des équipes Agile. Garantir la qualité des livrables et veiller à la réduction de la dette technique. Réaliser la modélisation des données. Assurer une veille technologique et participer aux POCs. Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques.
Mission freelance
Data Engineer GCP
Publiée le
Google Cloud Platform (GCP)
Hadoop
12 mois
550-570 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer GCP" pour un client dans le secteur de l'assurance Description 🧩 Contexte de la mission Au sein du Département Data Solutions, l’équipe TAI (Traitement et Analyse de l’Information) a pour objectif de préparer, transformer et mettre à disposition les données nécessaires aux applications métiers. Dans le cadre de la modernisation de la plateforme data, l’équipe lance un projet stratégique de migration des assets OnPrem vers le Cloud GCP, en s’appuyant notamment sur DataProc et BigQuery. 🎯 Objectifs et livrables Le consultant interviendra sur la migration technique des traitements data et sur l’accompagnement fonctionnel des équipes métier et techniques. 🔹 Missions fonctionnelles : Analyser et rationaliser le legacy existant pour le rendre compatible avec le Cloud GCP. Rédiger la documentation fonctionnelle de référence : Description technique et métier du SI cible. Implémentation et intégration dans le projet. Être garant de la bonne application des pré-requis techniques et fonctionnels. Maintenir une relation fluide et de confiance entre les équipes SI Source, Data Fabrik et les métiers. Mettre en place les bonnes pratiques sur DataProc et accompagner leur adoption. Accompagner la migration des projets TAI depuis la plateforme OnPrem vers DataProc. Soutenir les équipes (notamment LCB-FT) dans le développement et le déploiement des traitements. 🔹 Missions techniques ("dev") : Concevoir et développer les chaînes de traitement de données de bout en bout (depuis la source jusqu’à la consommation). Réaliser les développements conformes aux besoins métiers. Créer et industrialiser les workflows sous Control-M pour le pilotage automatisé des flux.
Mission freelance
Data Analyst / Data Engineer
Publiée le
Azure
Data analysis
Google Cloud Platform (GCP)
1 mois
450-550 €
Paris, France
Télétravail partiel
Mission / Freelance / 4/5ème / France / Paris / Data Analyst / Data Engineer / Marketing / GCP / Looker Boulogne-Billancourt (2j sur site / 3j remote) Démarrage : ASAP Mission estimée sur +/- 4 mois ; renouvellements mensuels Rythme : 4/5e (pas de travail le vendredi) ou temps plein Contexte Nous accompagnons un client qui recherche actuellement un freelance Data Analyst / Data Engineer pour rejoindre son équipe en charge des campagnes marketing. L’objectif : mesurer la performance des campagnes marketing, suivre les leads générés jusqu’aux ventes, et piloter la donnée de bout en bout. Vos missions Rattaché(e) à l’équipe Data & Marketing, vous interviendrez sur : La construction et l’optimisation de dashboards (Looker, Power BI ou équivalent) Le développement de scripts Python pour le traitement et la préparation de la donnée La mise en place et l’orchestration de pipelines de données (GCP / Azure) L’analyse de performance des campagnes et la production d’insights exploitables La visualisation et la communication des résultats aux équipes marketing Profil recherché Vous justifiez d’au moins 2 ans d’expérience professionnelle sur un rôle de Data Analyst ou Data Engineer Vous avez déjà travaillé dans un contexte marketing / performance / acquisition Vous maîtrisez : Looker (ou Power BI / Data Studio) Python pour le traitement de données Un cloud provider : GCP (idéalement) ou Azure Vous êtes rigoureux(se), analytique, et à l’aise pour manipuler des volumes de données variés Si cette opportunité vous intéresse, je vous laisse y postuler ou me contacter directement (Christopher Delannoy)
Mission freelance
Data Engineer | DevOps AWS (H/F)
Publiée le
AWS Cloud
CI/CD
Data analysis
9 mois
400-450 €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Offre d'emploi
DATA ENGINEER SEMARCHY F/H | LILLE (59)
Publiée le
Data analysis
ETL (Extract-transform-load)
Sap BO
3 ans
10k-43k €
100-400 €
Lille, Hauts-de-France
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client en qualité et serez en charge de : Participer au recueil des besoins en lien avec la MOA et les utilisateurs Analyser et spécifier les besoins Assurer la modélisation et la création de flux sur l'EtL Effectuer la recette Assurer le suivi de production Environnement Technique : Semarchy / Stambia, Vertica, SQL, SAP BO Le poste est basé à Lille (59) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.
Mission freelance
DATA ENGINEER GCP
Publiée le
Apache Spark
BigQuery
DBT
1 an
400-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un projet stratégique autour de la donnée , nous recherchons un Data Engineer expérimenté pour renforcer l’équipe de notre client, au cœur de la plateforme Data. La Direction Data joue un rôle clé dans la transformation numérique du groupe, avec trois missions principales : Maximiser la collecte et la valorisation des données tout en respectant la réglementation. Développer la connaissance et l’expérience utilisateur . Mettre à disposition des outils d’aide à la décision pour les équipes internes. 🎯 Vos missions principales : Concevoir, développer et maintenir des pipelines data robustes et scalables sur GCP. Déployer des datasets normés sur plusieurs domaines (Utilisateurs, Comportements, Référentiels). Mettre en place des contrôles qualité sur les datasets. Structurer et organiser le stockage des données dans une logique d’architecture évolutive. Participer à la mise en place des workflows CI/CD et à l’industrialisation via Terraform / Terragrunt. Collaborer avec les équipes Data pour assurer la qualité, la fiabilité et la gouvernance des données. Partager les bonnes pratiques et contribuer à la documentation technique .
Mission freelance
Tech Lead Data Engineer senior
Publiée le
Apache Spark
Azure
Databricks
12 mois
530-580 €
Paris, France
Télétravail partiel
Vous rejoindrez notre Data Factory dont la mission est de concevoir et de déployer des produits analytiques innovants à destination des magasins, des fonctions support, de la logistique et des consommateurs. Face à la montée en puissance des besoins, nous avons adopté une organisation Agile en Domaines/Squads, avec une forte volonté d’industrialiser nos pratiques pour accélérer les livraisons tout en valorisant notre patrimoine de données. En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique. À ce titre, vos principales responsabilités seront : Assurer un leadership technique auprès des équipes de développement. Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. Participer activement aux phases de conception, développement et tests. Porter la vision technique au sein des équipes Agile. Garantir la qualité des livrables et veiller à la réduction de la dette technique. Réaliser la modélisation des données. Assurer une veille technologique et participer aux POCs. Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. 2. Compétences Techniques Requises Nous recherchons un profil senior avec une expérience d’au moins 2 ans en tant que Tech Lead et une certification sur Spark ou Databricks sont exigées. Compétence Expérience minimale demandée : Data Engineering 5 ans Azure 3 ans Architecture Lakehouse 3 ans Databricks 5 ans Spark 5 ans SQL, Python 5 ans Scala 2 ans CI/CD, Azure DevOps 5 ans
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
272 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois