Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 273 résultats.
Freelance

Mission freelance
Tech Lead Data Engineer

QUALIS ESN
Publiée le
Azure

6 mois
400-550 €
Île-de-France, France

G Principales missions : - Assurer un leadership technique auprès des équipes de développement. - Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. - Participer activement aux phases de conception, développement et tests. - Porter la vision technique au sein des équipes Agile. - Garantir la qualité des livrables et veiller à la réduction de la dette technique. - Réaliser la modélisation des données. - Assurer une veille technologique et participer aux POCs. - Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. FRIDF-TECHNOLEAD-2 - France - IDF - TECH LEAD - Confirmé (4-10 ans) CONCEPTION S'assure de l'exhaustivité et de la pertinence des spécifications confiées aux développeurs Coordonne les plans de développements et activités des développeurs sur l'ensemble des composants logiciels impactés Réalise la conception technique des applications et des échanges dans le cadre de projets et évolutions en privilégiant la réutilisation des composants existants DÉVELOPPEMENT Elabore, maintient et renforce les directives d'intégration logicielle et réalise la conception technique des applications et des échanges dans le cadre de projets et évolutions en privilégiant la réutilisation des composants Aligne son travail avec les principes d'urbanisation et les directives générales d'intégration logicielle préconisée par l'Architecture Transverse Supervise les aspects techniques d'un projet (à la demande du responsable de pôle) Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Valide le design du logiciel et propose les frameworks utilisés dans le cadre du projet NORMALISATION ET QUALITÉ Assure la qualité du code des programmes informatiques Elabore et maintient les normes et patterns spécifiques d'intégration ainsi que leur diffusion auprès des développeurs et assure que ces normes / patterns sont bien suivies par l'équipe Est responsable également de l'élaboration et du maintien des abaques de coûts / délais nécessaires en regard des services fournis Assure la qualité des environnements de développement, des développements, du packaging et le bon usage des technologies à travers des audits de code Fait une veille permanente sur les évolutions technologiques ASSEMBLE LES COMPOSANTS ET PRÉPARE LA LIVRAISON DE SOLUTIONS Dans le cadre de projets, assemble les composants unitaires dans un package cohérent destiné au déploiement de la solution et le met sous gestion de configuration Assure la mise à disposition des environnements de développement Définit et administre une bibliothèque de composants logiciels, normes et patterns et assure la documentation de ces composants réutilisables dans la documentation ASSURE LE SUPPORT DE NIVEAU 3 Assure le support N3 pour la résolution de problèmes avec des composants développés par l'équipe et déployés dans les environnements Contribue à la rédaction des contrats de TMA en y intégrant les normes techniques COMMUNICATION ET VEILLE TECHNOLOGIQUE Assure une veille permanente sur les évolutions technologiques Assiste le responsable de pôle à identifier les axes d'amélioration technique et des compétences à développer

CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-55k €
Levallois-Perret, Île-de-France

Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : m69oqbzal8

Freelance

Mission freelance
Data Engineer

Phaidon London- Glocomms
Publiée le
AWS Cloud
Dataiku
Python

12 mois
Paris, France

Mon client, une banque basée à Paris, recrute deux Ingénieurs Data pour renforcer ses capacités de lutte contre la criminalité financière, notamment dans le cadre de la surveillance des transactions. Ce rôle consiste à construire et optimiser des pipelines de données permettant la détection en temps réel d’activités suspectes, afin d’aider l’établissement à répondre aux exigences réglementaires et à se protéger contre le blanchiment d’argent et la fraude..

Freelance

Mission freelance
Mission Freelance – Data Engineer Confirmé / Sénior

Comet
Publiée le
Python

1 an
400-550 €
Île-de-France, France

Missions Concevoir et maintenir des pipelines de données robustes et performants. Structurer et documenter les datasets (Utilisateurs, Comportements, Référentiels). Mettre en place et administrer des infrastructures data scalables . Déployer et maintenir des workflows CI/CD . Participer aux initiatives de gouvernance et qualité des données . Assurer la stabilité, la sécurité et la performance des environnements. Collaborer avec les équipes Data, Produit et Technique dans un contexte Agile. Environnement technique Langages : Python, SQL, Spark Stack : dbt, Airflow, Terraform, Terragrunt, GitLab CI/CD Cloud : Google Cloud Platform (BigQuery, Dataplex) Méthodologie : Agile (Scrum / Kanban)

CDI
Freelance

Offre d'emploi
Data Engineer - Java/ Spark

OBJECTWARE MANAGEMENT GROUP
Publiée le
Apache Spark
AWS Cloud
AWS Glue

6 mois
40k-45k €
260-500 €
Tours, Centre-Val de Loire

Démarrage : Dès que possible Contexte Dans le cadre du renforcement de nos équipes Data, nous recherchons un Data Engineer confirmé maîtrisant les environnements Java, Spark et AWS . Vous interviendrez sur des projets à forte volumétrie, autour de la collecte, du traitement et de la valorisation de la donnée. Missions Concevoir, développer et maintenir les pipelines de données sur des architectures distribuées (Spark, AWS). Industrialiser et fiabiliser les traitements batch et temps réel. Participer à la modélisation et à la gouvernance de la donnée. Optimiser la performance et la scalabilité des flux. Collaborer étroitement avec les équipes Data Science, BI et Cloud. Contribuer à la veille technologique et à l’amélioration continue des bonnes pratiques Data Engineering. Environnement technique Langages : Java, Python (souhaité) Frameworks : Apache Spark, Kafka, Airflow Cloud : AWS (S3, EMR, Glue, Lambda, Redshift, Athena) CI/CD : GitLab, Docker, Terraform Base de données : PostgreSQL, DynamoDB, Snowflake (selon projet) Profil recherché Formation Bac+3 à Bac+5 en informatique, data ou équivalent. Expérience confirmée en développement Java appliqué à la donnée (Spark). Bonne connaissance des services AWS orientés data. Esprit analytique, rigueur et goût du travail en équipe. Une sensibilité DevOps ou un attrait pour l’industrialisation est un plus. Pourquoi nous rejoindre ? Des projets Data à fort impact dans des environnements techniques exigeants. Un cadre de travail stimulant, collaboratif et bienveillant. De réelles perspectives d’évolution (technique ou architecture).

Freelance

Mission freelance
Data Engineer Fabric .Net

Cherry Pick
Publiée le
.NET
Databricks
Python

8 mois
500-520 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un Data Engineer Fabric .Net , pour le compte de l'un de ses clients qui opère dans le domaine de l'Energie. Description 🧩 Contexte de la mission Intégré(e) à la squad Data Platform, vous interviendrez sur des projets stratégiques de modernisation et d’industrialisation de la plateforme Data du groupe. Votre rôle consistera à concevoir, maintenir et sécuriser l’infrastructure data et cloud, tout en accompagnant les équipes Data et DevOps dans leurs déploiements et pratiques CI/CD. Vous serez au cœur des sujets Terraform, Databricks, AWS, Python et MS Fabric, en interaction directe avec les Data Engineers, Data Architects et Data Officers. 🎯 Objectifs et livrables Participer à la réalisation du workplan et aux user stories du backlog. Automatiser les déploiements d’infrastructure via Terraform et GitHub Actions. Maintenir et améliorer le pipeline CI/CD (Terraform, Docker, AWS, MS Fabric). Contribuer au monitoring et à l’exploitation de la Data Platform. Développer des microservices en Python ou .NET (C#). Participer aux activités de Build et de RUN, incluant le support et les mises en production. Améliorer la résilience, la qualité et la sécurité du code (“shift-left”). Proposer des optimisations FinOps et d’observabilité (Grafana, App Insights). Maintenir la documentation technique et les bonnes pratiques DevOps/DataOps.

Freelance

Mission freelance
Data Engineer (H/F)

Insitoo Freelances
Publiée le
Git
Google Cloud Platform (GCP)

2 ans
100-435 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Les missions attendues par le Data Engineer (H/F) : En tant qu'Analytic Engineer, votre rôle principal sera d'apporter une expertise technique approfondie sur les données métiers et de garantir leur parfaite adéquation avec les besoins opérationnels. Vous travaillerez en étroite collaboration avec les différents acteurs de l'équipe Data – notamment les Data Analysts, les Techleads GCP et les équipes d'Exposition – sur les domaines suivants : la supply chain, le référencement produit, le B2C, le transport et la logistique. Parallèlement, vous assurerez une veille technologique proactive sur l'intelligence artificielle et les outils Data (par exemple, Tableau, Looker ML) afin de continuellement enrichir notre expertise technique et proposer des solutions innovantes."

CDI

Offre d'emploi
Data Engineer Cloud GCP BigQuery F/H

Fnac Darty
Publiée le

50k-70k €
Ivry-sur-Seine, Île-de-France

Description de la Mission : Analyse et Conception Participer à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. Utiliser l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en oeuvre des projets. Être force de proposition sur l'amélioration de notre stack Data. Développement et Intégration Concevoir, développer et maintenir les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale. Identifier et résoudre les goulots d'étranglement et les problèmes de performances dans les flux de données. Qualité, Maintenance et Supervision Mettre en place des processus et des contrôles pour garantir la qualité des données. Concevoir et mettre en oeuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou évolutive. S'assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe. Documentation, Support, Pilotage Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation). Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le déploiement. Environnement Technique : Langages/Framework : SQL, BigQuery, Python, Shell. Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend. Base de données : BigQuery, Teradata, SQL Server, IBM DB2.

Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

CITECH
Publiée le
ServiceNow
Snowflake

6 mois
54k-64k €
400-470 €
Paris, France

CITECH recrute ! 👌 ✨ Vous souhaitez mettre vos talents au service d’un groupe de renom dans le secteur de l’hôtellerie ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Data Engineer (H/F) pour rejoindre une équipe dynamique. 👈 Vous interviendrez dans le cadre du renforcement des capacités analytiques autour des processus ITSM afin de mettre en œuvre une connectivité entre ServiceNow et Snowflake. Cette mission vise à exploiter les données de ServiceNow ITSM (incidents, demandes, changements, problèmes…) pour alimenter des cas d’usage analytiques à destination de plusieurs départements internes (IT, qualité, gouvernance, opérations…). 🙌🔽 Vos principales missions seront les suivantes : 🔽🙌 🔸 Établir et sécuriser une connexion technique entre ServiceNow ITSM et Snowflake 🔸 Extraire et charger les données des modules ITSM suivants : Request Management, Incident Management, Change Management, Problem Management 🔸 Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale) 🔸 Structurer les données dans Snowflake selon une logique modulaire, réutilisable et exploitable à des fins analytiques 🔸 Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité 🔸 Documenter le pipeline, les schémas de données et les points de reprise

Freelance
CDI

Offre d'emploi
Data engineer MSBI Python Azure (7-8 ans minimum)

Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS

3 ans
50k-65k €
500-580 €
Paris, France

🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines

Freelance

Mission freelance
Développeur / Data Engineer Observabilité h/f

Freelance.com
Publiée le
Azure
DevOps
Grafana

6 mois
400-600 €
Levallois-Perret, Île-de-France

Notre client recherche un Développeur Senior disposant d’une double expertise en développement backend et en ingénierie des données, pour rejoindre son équipe dédiée à l’observabilité. Concevoir, développer et maintenir des services backend (Python, PySpark) et des APIs orientées observabilité Construire et orchestrer des pipelines de données robustes (Airflow, Spark, Python) Garantir la qualité, la sécurité et la gouvernance des flux (tests, lineage, monitoring) Gérer les données via PostgreSQL, ADLS, Blob Storage, ElasticSearch Développer des dashboards et visualisations avancées (Grafana, ELK) Collaborer étroitement avec les équipes produit et développement (Agile/Scrum)

Freelance
CDI

Offre d'emploi
Lead Data Engineer – Azure / Snowflake / dbt

UCASE CONSULTING
Publiée le
Azure
DBT
Snowflake

2 ans
Paris, France

Contexte & Objectif de la mission Dans le cadre d’un projet stratégique de modernisation des plateformes de données, nous recherchons un Lead Data Engineer capable de piloter la conception, l’industrialisation et l’optimisation des flux data sur Azure et Snowflake. Vous interviendrez en tant que référent technique au sein de l’équipe Data Engineering, en apportant votre expertise sur les architectures cloud, la modélisation, la performance et les bonnes pratiques CI/CD. Rôles & Responsabilités Concevoir, développer et optimiser des pipelines de données sous Snowflake / Snowpark. Orchestrer les flux via Azure Data Factory et dbt (Python) pour des traitements fiables et scalables. Intégrer et exposer des APIs pour l’ingestion, la transformation et la diffusion des données. Déployer et administrer l’infrastructure as code via Terraform. Implémenter et superviser les pipelines CI/CD sous Azure DevOps. Automatiser les tâches récurrentes avec PowerShell et Azure CLI. Encadrer la modélisation des données (3NF, étoile) et la mise en œuvre du modèle d’entreprise et du Data Warehouse. Garantir la gouvernance des données, la qualité, la sécurité (RGPD) et le FinOps des plateformes. Assurer la documentation, la supervision et la coordination technique avec les équipes métiers et IT. Environnement technique Azure – Snowflake – dbt (Python/Snowpark) – Azure Data Factory – Terraform – Azure DevOps – PowerShell – Azure CLI – PowerDesigner – Git

Freelance

Mission freelance
Data enginner SQL UNIX TEMPS PARTIEL

infotem
Publiée le
SQL
UNIX

3 mois
250-280 €
Île-de-France, France

Vous renforcerez notre équipe de RUN et de maintien en conditions opérationnelles sur nos solutions. Vos activités principales sont :  Générer des fichiers à intégrer en base à partir des portails opérateurs  Intégrer en base, les données de parc et de facturation  Lancer des batch et suivre les traitements  Effectuer des requêtes pour extraction, injection ou correction en masse  Mettre à jour les référentiels et contrôler la cohérence des données présentées dans l’applicatif pour nos clients  Contrôle des intégrations automatisées

Freelance

Mission freelance
DATA Engineer - AWS(H/F)

Atlas Connect
Publiée le
AWS Cloud
Azure DevOps
Data Lake

1 an
510-540 €
Île-de-France, France

Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.

Freelance

Mission freelance
Data Engineer - access management on Snowflake

HIGHTEAM
Publiée le
Snowflake

3 ans
400-550 €
Île-de-France, France

Adminisitration Snowflake - Confirmé - Impératif RBAC - Confirmé - Impératif GITLAB - Confirmé - Important TERRAFORM - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Au sein d'une Tribe Data Platform, l'équipe DATA « Data Platform Protect » (DPP) fournit des produits et des services pour gérer les accès et la protection des données sensibles (snowflake, app streamlit, etc.). Sous la responsabilité du Tech Lead Data Platform, le/la Data Engineer Snowflake « DPP » aura donc la charge de… Déployer un nouveau framework RBAC auprès des différentes Feature Teams DATA (+ 10 FT) sur leurs projets Gitlab gérant les ressources Snowflake Communiquer avec les TechLeads des Feature Teams Participer aux activités et évènements transverses de la Feature Team/Tribe, du pôle ENGINEERING ou DATA.

Freelance

Mission freelance
Lead Data Engineer Streaming

STHREE SAS pour HUXLEY
Publiée le
Apache Kafka
Apache Spark

12 mois
700-850 €
75013, Paris, Île-de-France

Contexte de la mission Dans le cadre du programme de modernisation de la plateforme data du Groupe, vous rejoignez la direction Data Engineering de la DSI Banque de Proximité et Assurance (BPA) en tant que Lead Data Engineer spécialisé en streaming. Vous serez responsable de la conception, de l’industrialisation et de l’optimisation des pipelines de données temps réel, en lien avec les enjeux métiers autour de la fraude, de la connaissance client, et de la supervision des parcours digitaux. Vous encadrerez une équipe de 3 à 5 data engineers et collaborerez étroitement avec les architectes, les data scientists et les équipes cloud. Stack technique & environnement Streaming & ingestion : Apache Kafka (Confluent), Kafka Connect, REST Proxy Traitement temps réel : Apache Spark Structured Streaming, Apache Flink (POC en cours) Orchestration : StreamSets, Airflow Cloud & stockage : Google Cloud Platform (BigQuery, Cloud Storage), Hadoop (legacy) Langages : Python, Scala, SQL CI/CD & Infra : GitLab CI, Terraform, Docker, Kubernetes (GKE) Monitoring : Grafana, Prometheus, Elastic Stack

273 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous