Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 208 résultats.
Freelance

Mission freelance
Data Engineer senior/ Python/ Talend / Looker/ GCP - Domaine Retail (H/F)

Octopus Group
Publiée le
BigQuery
Composer
Git

6 mois
490-560 €
Ivry-sur-Seine, Île-de-France

Nous recherchons pour le compte de notre client dans le retail, un data Engineer senior. En tant que Data Engineer, vous aurez la charge de concevoir, développer et d’optimiser des solutions Data adaptées aux besoins de nos différents métiers. Votre expertise avancée sur les différents services GCP, combinée à une solide maîtrise de SQL et python, sera essentielle pour concevoir des solutions performantes et alignées avec les besoins métiers. Vous serez un acteur clé de l'équipe technique de la Data Factory pour garantir la fiabilité et la performance des systèmes de traitement de données. Missions principales : • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Freelance

Mission freelance
Data Engineer GCP

MLMCONSEIL
Publiée le
CI/CD
Google Cloud Platform (GCP)
Python

6 mois
260-350 €
Rouen, Normandie

Pour le besoind emon client, je suis à la recherche d'un Data Engineer avec compétences Google Cloud / BigQuery Analyse, Conception et Modélisation Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). GCP (BigQuery, Cloud Storage, Cloud Composer, Airflow, GKE) .. ... .. ... ... ... ... .. .. .. .. ... .. ... .. ... .. ... ... .... ... ... .. .. ... ... ... ... ... ... .. ... ... ... ... ... ... ... ... ... ... ... ... ... .... ... ..

Freelance

Mission freelance
Data Engineer ServiceNow / Snowflake

HIGHTEAM
Publiée le
Apache Airflow
Data analysis
DBT

3 ans
500-600 €
Île-de-France, France

Dans le cadre d’un projet stratégique d’exploitation des données ITSM, nous recherchons un Data Engineer expérimenté pour concevoir et automatiser une pipeline d’ingestion de données depuis ServiceNow vers Snowflake , au service de plusieurs départements (IT, qualité, opérations, gouvernance…). Objectifs & Responsabilités Établir et sécuriser la connexion technique entre ServiceNow ITSM et Snowflake Extraire et charger les données des modules suivants : Concevoir une pipeline d’ingestion automatisée (batch ou incrémentale) Structurer les données dans Snowflake selon une logique modulaire et réutilisable Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake (Data Warehouse Cloud) Orchestration : Airflow (ou équivalent à définir) Transformation : DBT Core / SQL Modélisation : DrawIO ou outil libre équivalent Visualisation : Tableau CI/CD / Versioning : GitLab Documentation & Gestion de projet : Confluence, Jira

CDI

Offre d'emploi
Data Engineer Cloud GCP BigQuery F/H

Fnac Darty
Publiée le

50k-70k €
Ivry-sur-Seine, Île-de-France

Description de la Mission : Analyse et Conception Participer à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. Utiliser l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en oeuvre des projets. Être force de proposition sur l'amélioration de notre stack Data. Développement et Intégration Concevoir, développer et maintenir les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale. Identifier et résoudre les goulots d'étranglement et les problèmes de performances dans les flux de données. Qualité, Maintenance et Supervision Mettre en place des processus et des contrôles pour garantir la qualité des données. Concevoir et mettre en oeuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou évolutive. S'assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe. Documentation, Support, Pilotage Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation). Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le déploiement. Environnement Technique : Langages/Framework : SQL, BigQuery, Python, Shell. Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend. Base de données : BigQuery, Teradata, SQL Server, IBM DB2.

Freelance

Mission freelance
Data Engineer GCP & JAVA

IDEMYS
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
Île-de-France, France

Nous recherchons pour notre client, une entreprise de premier plan, un Data Engineer expérimenté avec une expertise en Cloud, de préférence sur Google Cloud Platform (GCP). Dans un contexte à fort enjeu de transformation digitale, la mission consistera à accompagner l’équipe Data Engineering dans la conception, le développement et l’industrialisation de pipelines de données robustes, scalables et performants. Maîtrise de Java, Spring Boot, et Maven Expertise en BigQuery Connaissance approfondie du SQL Devops sur Github Datafor / DBT Maîtrise de Dataflow Expertise en BigQuery Expérience avec Apache Airflow Utilisation de Cloud Run Connaissance de Terraform

Freelance

Mission freelance
Data engineer Python / Pyspark

K2 Partnering Solutions
Publiée le
PySpark
Python

12 mois
400-450 €
Paris, France

Nous recherchons un Data Engineer freelance pour intervenir sur une mission de longue durée (minimum 12 mois) dans le secteur de l’assurance. Vous rejoindrez une direction data structurée et en pleine croissance, au cœur d’une transformation digitale d’envergure. 🎯 Objectifs et contexte de la mission : En tant que Data Engineer , vous intégrerez une équipe d’environ 30 personnes (data engineers, tech leads) organisée en feature teams agiles . Vous contribuerez à la construction du socle technique Big Data et à l'industrialisation des projets data portés par les directions métier (client, marketing, produits...). 🔧 Stack technique & compétences requises : Compétences techniques indispensables : Développement en Python , avec une solide maîtrise de Spark / PySpark Bonne connaissance de l’environnement Microsoft Azure (Data Factory, Data Lake, Databricks, etc.) Expérience sur des outils de visualisation type Power BI Connaissances des bases de données relationnelles et NoSQL Compétences complémentaires (un plus) : Outils de delivery : Azure DevOps , Azure Pipelines , GIT , JIRA Connaissance des principes CI/CD , tests automatisés , clean code Connaissance des méthodes agiles : Scrum , Kanban 📍 Informations pratiques : Type de contrat : Mission freelance uniquement Localisation : Paris (modèle hybride possible) Démarrage : ASAP Durée : 12 mois minimum

Freelance
CDI

Offre d'emploi
Data Engineer AWS - Data / IA

SQUARE ONE
Publiée le
AWS Cloud
Big Data
Dataiku

12 mois
40k-55k €
500-520 €
Hauts-de-Seine, France

Contexte de la mission : Dans le cadre du lancement d’une nouvelle plateforme Data & IA dans le cloud, nous recherchons un consultant expérimenté afin d’accompagner le déploiement complet de l’environnement, depuis l’intégration des données jusqu’à la mise en production. Vous interviendrez sur la mise en place et l’optimisation des environnements Data et IA, ainsi que sur le développement de cas d’usage innovants en lien avec la génération et le traitement intelligent de données. Vos missions principales : Finaliser et stabiliser les environnements Data existants (cloud et on-premise interfacés). Mettre en œuvre les services managés Data/IA du cloud (incluant notamment des solutions de génération et de recherche augmentée). Contribuer au développement d’un front applicatif orienté Data/IA (use cases speech-to-speech). Déployer et industrialiser les cas d’usage Data et IA en production. Collaborer avec les équipes projet pour résoudre les problématiques techniques résiduelles.

Freelance

Mission freelance
Data Engineer Talend

Cherry Pick
Publiée le
ETL (Extract-transform-load)
Talend

12 mois
450-480 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Expert Talend" pour un client dans le secteur bancaire Description 🎯 Objectif de la mission Dans le cadre de projets critiques (MCO, facturation, référentiels), la mission vise à assurer le développement de flux ETL sous Talend pour le compte d’une structure utilisant des solutions comme Opencell. L’enjeu est de garantir une intégration de données fiable et performante, au cœur de processus stratégiques. 🧪 Responsabilités principales Concevoir, développer et maintenir les flux ETL sous Talend. Travailler dans un environnement soumis à de fortes contraintes de maintenance en conditions opérationnelles (MCO). Assurer la qualité, la cohérence et la conformité des référentiels de données. Participer à la mise en œuvre et à la supervision de solutions liées à Opencell (facturation, gestion client…). Garantir l’intégrité des données alimentant le Data Lake et les systèmes décisionnels.

Freelance
CDI

Offre d'emploi
DATA ENGINEER ETL / SEMARCHY F/H | STRASBOURG (67)

HIGHTEAM GRAND SUD
Publiée le
Sap BO
SQL

3 ans
10k-42k €
100-400 €
Strasbourg, Grand Est

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et interviendrez sur des projets d'envergure. A ce titre, vous serez en charge de : Gérer les demandes et participer au pilotage de projet Echanger avec la MOA et les utilisateurs Réaliser l'analyse et rédiger les spécifications techniques. Modéliser les données et optimiser les architectures décisionnelles. Concevoir et développer des flux ETL. Rédiger la documentation technique et fonctionnelle. Participer à la recette et au suivi de production. Environnement Technique : Vertica, Semarchy, SAP BO, SQL Le poste est basé à Strasbourg (67) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.

Freelance

Mission freelance
[LFR] Mission de[BI-BIGDATA-CG]-FCE Data engineer Cargo DLK | Confirmé-4j/sem Remote-Valbonne - 814

ISUPPLIER
Publiée le

5 mois
1-395 €
Valbonne, Provence-Alpes-Côte d'Azur

EXPERIENCED DATA ENGINEER FOR CARGO DOMAIN DLK We are looking for an experienced data engineer with Java, Spark, Python and agile tool skills The cargo datalake domain load and refined data for AF&KL companies He/She will have to help on the current project backlog ( corrections & new features ) Within a 6 people team Valbonne souhaité (1 day / week), client ouverte à proposition de profil sur d'autres localisations Technical skill : ( with % repartition of daily activities ) Java : 50% Spark : 40% Scripting (shell, python) : 10 % Agile methodology -? outside the technical skills but required

Freelance

Mission freelance
Expert Data Engineer H/F

Cheops Technology
Publiée le
SAS

12 mois
400-550 €
Montreuil, Île-de-France

La mission couvrira les points suivants : - Organisation d’ateliers avec les différentes équipes RISK - Migration de programmes SAS/SQL vers DataIku, incluant l’analyse technique, la reprise et les recettes - Proposition et maîtrise de l'œuvre avec une modélisation des données pour répondre aux besoins fonctionnels des reportings - Automatisation des traitements avec l’automation node de DataIku - Création de dashboard Tableau - Publication des dashboard Tableau finalisés sur Tableau Server - Optimisation des traitements de données pour minimiser l’empreinte sur les assets IT - Optimisation des dashboard Tableau pour diminuer les temps de réponses des dashboards

Freelance

Mission freelance
Data Engineers – ServiceNow / Snowflake

HIGHTEAM
Publiée le
DBT
ServiceNow
Snowflake

3 ans
500-600 €
Île-de-France, France

Pour l’un de nos clients grands comptes, nous recherchons un Data Engineers confirmé pour assurer la connexion, l’extraction et la structuration de données entre ServiceNow ITSM et Snowflake , dans un objectif de reporting et d’analyse. Missions principales Extraire et charger les données des modules ITSM : Management Incident Management Change Management Problème Management Concevoir un pipeline d’ingestion automatisé (batch ou incrémental) Structurer les données dans Snowflake selon une logique modulaire, réutilisable et analytique Implémenter des métadonnées , des logiques de rafraîchissement et des mécanismes de qualité de données Documenter : pipelines, modèles de données, points de reprise, etc. Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake Orchestration : Airflow (ou équivalent) Transformation : DBT Core / SQL Visualisation : Tableau CI/CD & versioning : GitLab Documentation & suivi projet : Confluence, Jira

CDI
Freelance

Offre d'emploi
Data Engineer | AWS | Databricks | Big Data

Hexateam
Publiée le
AWS Cloud
Databricks
Python

36 mois
Île-de-France, France

Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum

Freelance
CDI

Offre d'emploi
Data Engineer AWS/Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

24 mois
Île-de-France, France

Missions principales : Conception d’outils Big Data : Contribution active à la conception, au développement et à l’amélioration d’outils de traitement de données massives, couvrant l’ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution. Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles. Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow. Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d’optimiser les coûts, les performances et l’utilisation des ressources sur AWS. Utilisation d’outils tels que dbt , GitLab CI/CD , et autres solutions DevOps. Audit et accompagnement transverse : Réalisation d’audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l’adoption de stratégies FinOps efficaces. Technologies et outils utilisés : Cloud & Big Data : AWS (S3, EC2, Lambda, Glue), Databricks, Spark Langages & Frameworks : Python, SQL, PySpark Orchestration & Automatisation : Airflow, GitLab CI/CD, dbt Suivi des coûts et performance : Outils FinOps intégrés à AWS Méthodologies de travail : Agile / Scrum, DevOps, FinOps

Freelance

Mission freelance
Data Engineer GCP/Big Query (H/F)

Come Together
Publiée le
Google Cloud Platform (GCP)

3 mois
440-460 €
Lille, Hauts-de-France

Nous sommes à la recherche d'un profil Data Engineer pour participer aux opérations de build sur les environnements Big Data basées sur Google Cloud au sein de la Direction Data pour notre client acteur majeur de la grande distribution. Sa mission sera de concevoir et développer les nouveaux flux de données en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers. Ses principales missions seront les suivantes : - Analyser les besoins des métiers et les traduire en spécifications techniques (en contribuant également à l'élaboration des contrats d'interface et à la modélisation physique) - Développer des pipelines de données au sein de son périmètre - Veiller à la qualité et l'efficience des développements de l'équipe - Contribuer à la construction de la plateforme data et des services en remontant les besoins non couverts par le framework - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineers, Data Scientists et les équipes métiers.

CDI
Freelance

Offre d'emploi
Data Engineer ServiceNow (H/F)

CITECH
Publiée le
ServiceNow
Snowflake

12 mois
55k-70k €
400-510 €
Paris, France

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de projets Data ambitieux, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer ServiceNow (H/F) . 👉 Notre client évolue dans le secteur des services et vous intégrerez le pôle Data & Analytics. 👈 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Mettre en œuvre une connectivité technique entre ServiceNow ITSM et Snowflake 🔸 Extraire et charger les données des modules ITSM (Request, Incident, Change, Problem Management) 🔸 Concevoir et industrialiser des pipelines automatisés d’ingestion (batch ou incrémentale) 🔸 Structurer et modéliser les données dans Snowflake pour répondre à des cas d’usage analytiques 🔸 Implémenter les logiques de rafraîchissement, suivi de qualité et métadonnées 🔸 Documenter les pipelines, schémas de données et points de reprise 🔸 Participer à la mise en place des bonnes pratiques CI/CD, versioning et documentation 🔸 Collaborer avec les équipes IT, qualité, gouvernance et opérations pour couvrir les besoins analytiques 🔸 Contribuer à la veille technologique et à l’amélioration continue des processus

208 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous