Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 268 résultats.
CDD
CDI
Freelance

Offre d'emploi
Tech Lead Data Engineer – Big Data / Java Spark

Publiée le
Apache Spark
Big Data
Cloudera

3 ans
Paris, France
Contexte du projet : Dans le cadre d’un vaste programme de transformation digitale, CBX Group accompagne un grand acteur dans la mise en place et l’industrialisation d’une plateforme Big Data. Nous recherchons un Tech Lead Data Engineer expérimenté pour renforcer l’équipe Data et piloter la conception, le développement et la mise en production de traitements batch et temps réel, tout en encadrant les Data Engineers de la squad. Missions principales : Piloter la conception et le développement de pipelines en Spark SQL et Java Spark (batch & streaming). Définir les standards de développement et garantir la qualité technique de la squad (revues de code, bonnes pratiques, CI/CD). Concevoir et optimiser des traitements temps réel (Kafka, MongoDB, event-driven). Accompagner le design des usages Data en lien avec les Product Owners et le métier. Assurer l’optimisation et le tuning des traitements Spark pour garantir performance et scalabilité. Encadrer et coacher les Data Engineers de l’équipe, favoriser le partage de connaissances. Documenter l’architecture et les traitements dans Confluence, assurer le support et la maintenance. Participer aux rituels agiles et contribuer à la roadmap technique de la plateforme. Stack technique : Cloudera / MAPR, Java 11/17/21, Spark 2/3, Spring Boot, Kafka, MongoDB, Jenkins, Kubernetes, ArgoCD, SonarQube ; cloud GCP
CDI

Offre d'emploi
Data Engineer - SQL Server/ SSIS – Environnement Agile

Publiée le
Agile Scrum
Gestion des habilitations
Microsoft SQL Server

40k-45k €
Nantes, Pays de la Loire
Télétravail partiel
Dans le cadre de l’évolution d’une plateforme de gestion et de préparation de données sous SQL Server, nous recherchons un profil data Engineer capable de prendre en charge les demandes et incidents, d’accompagner les équipes au quotidien et de contribuer à la fiabilisation des traitements de données. 🧩 Tâches principales Assurer la réception, qualification et suivi des tickets (incidents fonctionnels et techniques) dans un environnement Agile. Prendre en charge la résolution d’incidents de premier niveau (SQL, habilitations, accès, erreurs simples de traitements). Escalader et documenter les incidents complexes vers les équipes de développement ou d’infrastructure. Accompagner les utilisateurs dans l’usage de la plateforme (explications, assistance, formation ponctuelle). Participer aux tests de non-régression et validations lors des évolutions ou migrations. Contribuer à l’ amélioration continue des processus de support et de documentation. Collaborer avec les équipes projet et développement dans un cadre Agile / Scrum (daily, rétrospectives, etc.).
Freelance
CDI

Offre d'emploi
Technico-Fonctionnel Full Stack / Data engineer (Snowflake) / Audit & Estimation

Publiée le
Apache Airflow
Audit
AWS Cloud

12 mois
Malakoff, Île-de-France
Télétravail partiel
Contexte & Objectif Dans le cadre d’un projet Data déjà développé, le client souhaite faire appel à un expert capable de réaliser un audit technique et fonctionnel. En tant que Technico-Fonctionnel Full Stack / Data engineer (Snowflake) / Audit & Estimation vos principales missions seront les suivantes : Réaliser un audit complet d’un projet existant. Vérifier la compatibilité technique avec Snowflake et les environnements associés. Analyser et traduire le code back/front . Produire des recommandations concrètes : faisabilité, coûts, charge, risques. Intervenir en interface technico-fonctionnelle entre équipes techniques et métiers.
Freelance

Mission freelance
Data Engineer – GCP / BigQuery / DBT

Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

12 mois
Toulouse, Occitanie
Télétravail partiel
Contexte de la mission Nous recherchons un Data Engineer expérimenté afin de renforcer l’équipe Data et contribuer à la mise en place, l’optimisation et l’industrialisation de la plateforme de données sur Google Cloud Platform (GCP) . Vous interviendrez sur des problématiques de modélisation, transformation et exploitation de données avec BigQuery et DBT , en collaboration avec les équipes métier et analytics. Vos missions Concevoir, développer et maintenir les pipelines de données dans un environnement GCP. Implémenter et optimiser des modèles de données dans BigQuery . Mettre en place et maintenir les transformations avec DBT (Data Build Tool). Garantir la qualité, la performance et la fiabilité des traitements de données. Participer aux choix techniques et bonnes pratiques (CI/CD, documentation, monitoring). Collaborer avec les équipes Data Analysts / Data Scientists pour assurer la disponibilité et la pertinence des données.
Freelance

Mission freelance
Data Engineer Senior (Spark,Java,Pyton,SQL)

Publiée le
Apache Spark
Java
Python

12 mois
500-560 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Senior pour l'un de ses clients dans le secteur la mutuelle. En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data Compétences obligatoires : Maitrise Spark/Java, Maitrise Python Maitrise SQL, AWS : S3 / Glue / Redshift / Step Functions / Lambda, CICD : Git, Jenkins, … ETL XDI et/ou ODI Compétences souhaitables/optionnelles : Docker, Terraform, Power BI / BO
Freelance

Mission freelance
Azure Data Engineer (Azure Functions / Kafka / MS Fabric)

Publiée le
Azure
SAP BW

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Télétravail 100%
Nous recherchons un expert en data engineering pour nous accompagner dans un premier temps à l’extraction des données financières depuis SAP vers notre plateforme de données Azure, puis au développement de pipelines de données robustes. Le projet consiste à intégrer SAP BW et SAP BFC à la plateforme Azure. L'objectif est de centraliser efficacement les données financières pour alimenter un modèle d'intelligence artificielle destiné à prédire les KPIs financiers de l’entreprise. Le consultant idéal aura une solide expérience des Azure Functions , Apache Kafka , Microsoft Fabric , ainsi qu’une bonne maîtrise de SAP BW et SAP BFC . Ce projet est essentiel pour améliorer nos capacités de traitement de données financières et garantir des analyses prédictives fiables. 📌 Objectifs & livrables L’objectif principal est d’assurer une intégration fluide des systèmes financiers à notre plateforme Azure. Les livrables attendus incluent : Concevoir et implémenter un pipeline de données entre SAP BW, SAP BFC et Azure Garantir l'intégrité et la sécurité des données tout au long du processus Optimiser les flux de données pour un traitement et une analyse en temps réel Faciliter la consommation des données par des modèles d'IA pour la prédiction des KPIs Fournir la documentation et la formation pour la maintenance et le support
Freelance

Mission freelance
Data Engineer AWS Senior – (PySpark )

Publiée le
Amazon S3
Apache Spark
AWS Cloud

6 mois
520-590 €
Île-de-France, France
Télétravail partiel
Contexte de la mission En renfort de l’entité Solutions Data , le Data Engineer Senior interviendra dans un environnement hybride Cloud / On-Premise (cible On-Premise) pour participer activement aux activités Run, Build, Expertise et Accompagnement . 🚀 Missions principales Participer à l’élaboration du design technique des produits logiciels. Contribuer à la recherche et mise en œuvre de solutions techniques adaptées. Prendre en charge une partie des développements . Accompagner et coacher les autres développeurs (optimisation de code, bonnes pratiques). Collaborer avec l’ architecte Data pour l’intégration des produits dans le SI. Garantir la qualité des produits logiciels livrés. Accompagner les directions métiers dans la réalisation de leurs cas d’usage Data. 🔧 Compétences obligatoires Spark / Java (maîtrise avancée) Python (maîtrise avancée) SQL (maîtrise avancée) Cloud AWS : S3, Glue, Redshift, Step Functions, Lambda CI/CD : Git, Jenkins ETL : XDI et/ou ODI 🌟 Compétences souhaitées (atouts) Docker Terraform Power BI / Business Objects 📍 Localisation Mission basée à Châtillon (92) .
Freelance

Mission freelance
Data Engineering Senior - Python/Pyspark/Databricks/AWS (H/F)

Publiée le
AWS Cloud
Databricks
PySpark

6 mois
500-560 €
Paris, France
Télétravail partiel
Notre client dans le secteur Énergie et ressources naturelles recherche un/une Data Engineering Senior - Python/Pyspark/Databricks/AWSH/F Description de la mission: Notre client, acteur majeur dans le secteur de l'énergie, cherche un(e) consultant(e) pour renforcer son équipe : prestation de Data Engineering avec des compétences sur Python/Pyspark/Databricks sous un environnement AWS Cloud. Le prestataire Data Engineer évoluera dans un contexte agile, en mode itératif et co-constructif, en s’appuyant sur l’intelligence collective. Le prestataire Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : - Collecter les exigences des métiers et des utilisateurs - Concevoir data modeling SQL/NoSQL - Concevoir les pipelines de données - Mettre en production l'architecture - Assurer la maintenance et l'évolution de l'architecture Expérience réussie d’au moins 6 ans en data engineering. Langues : Niveau de français et d’anglais courant Compétences requises : Maîtrise des technologies suivantes : Python 4/4 PySpark 4/4 Databricks 3/4 AWS 3/4 Anglais 3/4 Lieu : Paris Début de mission : 08/12/2025 Télétravail : 2 jours/semaine Lieu de la mission : Paris Compétences Niveau de compétence Python - Expert PYSPARK - Expert Databricks - Confirmé CLOUD AWS - Confirmé Langues Niveau de langue Anglais Courant Compétences / Qualités indispensables : Python (4/4) , PySpark (4/4) , Databricks (3/4) , AWS Cloud (¾) , Anglais (3/4) Informations concernant le télétravail : 2 jours
Freelance

Mission freelance
Business Analyst senior/Expert Data – Asset Management

Publiée le
Architecture
Business Analyst
Data Warehouse

2 ans
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst Data expérimenté pour accompagner un Asset Manager dans la structuration et l’évolution de son écosystème Data. Vos missions : Recueillir et formaliser les besoins Data des équipes métier (Front, Risk, Reporting, Compliance). Contribuer à la conception du modèle de données et à la qualité / gouvernance des données. Participer à la mise en place d’outils de data management et data lineage. Collaborer avec les équipes IT, Data Engineers et Métier sur la roadmap Data
CDI

Offre d'emploi
Data ingénieur NiFi - Finance et banque H/F

Publiée le

40k-50k €
France
Télétravail partiel
Contexte de la mission : Viveris vous propose un poste de Data Engineer au sein de la Business Unit Épargne et Services Financiers. Dans le cadre d'un nouveau projet visant à centraliser, fiabiliser et gouverner l'ensemble des données relatives aux instruments financiers, vous intégrerez la squad Data, composée de trois développeurs Data, d'un architecte technique, d'un business analyst et d'un product owner. Vous devrez maîtriser l'environnement NiFi ainsi que l'architecture des pipelines de données, qui présente une certaine complexité avec de nombreux flux et interactions entre les différentes tâches. Responsabilités : - Concevoir et développer des pipelines de données ; - Développer et intégrer sur Apache NiFi ; - Contrôler la qualité et la traçabilité ; - Rédiger la documentation et partager vos connaissances.
Freelance

Mission freelance
FREELANCE - Data Modeler (H/F)

Publiée le
Modélisation

3 mois
450-500 €
Cagnes-sur-Mer, Provence-Alpes-Côte d'Azur
Télétravail 100%
Notre client est à la recherche d’un Data Modeler (H/F) freelance pour l’accompagner dans le cadre d’un projet de transformation et de modernisation de leur système d’information décisionnel. MISSIONS En collaboration avec les équipes data, les experts métiers et les data engineers, vos missions sont les suivantes : · Analyser les besoins métiers et les cas d’usage pour en extraire les objets métiers et leurs relations dans le but de concevoir des modèles de données adaptés aux environnements décisionnels · Documenter les modèles de données de manière claire et structurée · Garantir la cohérence et la pérennité du modèle de données dans le temps · Participer à l’intégration des modèles dans les outils connexes de l’entrepôt de données : processus d’alimentation ETL et restitutions (Semarchy, Sportfire) · Assurer la qualité, la traçabilité et la gouvernance des données modélisées · Collaborer avec les équipes métiers pour valider les choix de modélisation et s’assurer de leur bonne compréhension
Freelance

Mission freelance
Chef de Projet IA Générative Technique

Publiée le
Angular
IA Générative
Python

6 mois
510-620 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe d'innovation transverse au sein de la DSI Corporate d'un grand groupe du secteur Banque & Assurance. Cette équipe, composée d'une vingtaine d'experts (Data Engineers, Data Scientists, Développeurs Fullstack), agit en mode "commando" pour développer des solutions tactiques et innovantes au plus près des besoins métiers. L'un de nos axes majeurs actuels est l'accompagnement de l'ensemble des métiers du groupe dans la mise en œuvre de cas d'usage d'IA générative. En tant que Chef de Projet IA passionné et expérimenté, vous serez responsable du pilotage de projets liés à l'IA générative, en vous assurant que les solutions développées répondent parfaitement aux besoins des utilisateurs finaux. Vos Missions Principales : Pilotage et Recueil des Besoins : Collaborer étroitement avec les parties prenantes (métiers) pour identifier et analyser les besoins. Organiser et animer des ateliers de co-conception. Gestion de Projet : Élaborer et suivre le planning, coordonner les activités des développeurs (Python, Angular) et assurer le respect des délais. Conception Technique : Participer activement à la conception des solutions techniques en collaboration avec les développeurs, en veillant à l'alignement avec les besoins exprimés. Qualité et Tests : Assurer la qualité des livrables en mettant en place les processus de validation et de tests adéquats. Communication "Pivot" : Agir comme l'interface principale entre l'équipe technique et les métiers, en facilitant la compréhension mutuelle et en présentant régulièrement l'avancement. Veille Technologique : Rester à l'affût des dernières tendances dans le domaine de l'IA.
Freelance

Mission freelance
ML Engineer Lead Expert

Publiée le
MLOps

6 mois
600-800 €
Hauts-de-Seine, France
Et si c’était vous notre prochain(e) Data Engineer ? Chez CharliGroup, on pense qu’un bon environnement de travail, ce n’est pas juste une stack à jour ou des bureaux sympas. C’est aussi (et surtout) une équipe bienveillante, un accompagnement sincère et des opportunités d’évoluer à votre rythme, avec du sens. Aujourd’hui, on recherche un(e) ML Engineer/ Lead MLOPS pour renforcer notre équipe tech, dans le cadre d'une mission chez un client dans le secteur de l'Assurance Missions : Refactoriser, structurer et documenter la bibliothèque Python existante pour les simulations, l'inférence et l'analyse des modèles. Développer des pipelines robustes pour la simulation, la détection d'événements extrêmes, l'entraînement et l'évaluation des modèles. Optimiser l'utilisation d'un serveur (multi-)GPU pour les simulations et l'entraînement à grande échelle de l'IA. Encadrer l'équipe sur les meilleures pratiques en matière de code scientifique et d'utilisation des GPU. Expertise
CDI

Offre d'emploi
Data Analyst / Analytics Engineer (Futur Lead Data)

Publiée le
Data analysis
Data Lake
Microsoft Power BI

45k-60k €
Paris, France
Télétravail partiel
Sublimez l’usage de la donnée au sein de la plateforme Sincro Solutions Sincro Solutions est un éditeur de logiciels SaaS qui propose un écosystème interconnecté couvrant l’ensemble des besoins des acteurs de la prestation intellectuelle. Nos solutions VMS , ERP et SRM accompagnent la gestion des talents de bout en bout : de l’analyse de CV à la facturation, en passant par la comptabilité d’entreprise et la gestion de projet. Rejoindre Sincro Solutions , c’est participer à un projet unique, intégré et 100 % agile , dans un contexte de forte croissance. Vous évoluerez dans un environnement stimulant, qui réunit les technologies, langages, infrastructures, outils et méthodes les plus performants du marché . Missions principales Rôle et positionnement En tant que Data Analyst / Analytics Engineer , vous rejoignez le pôle Produit et intégrez l’équipe technique en charge de la construction de nouvelles fonctionnalités et de l’optimisation des performances des outils mis à disposition de nos clients internes et externes. Rattaché·e à l’ Engineering Manager , vous interviendrez principalement sur le Cloud Microsoft Azure . Ce poste représente une opportunité unique de créer la fonction Data chez Sincro Solutions et d’en devenir, à terme, le Lead Data . Analytics Engineering En tant qu’Analytics Engineer, vous jouerez un rôle clé dans le développement et la gestion du Data Lake / Data Warehouse utilisé par nos produits et nos clients. Vos responsabilités incluent notamment : Assurer la qualité des données : garantir des données propres, sécurisées et anonymisées dès leur entrée dans le système, en collaboration avec les équipes Data Engineers, ML Ops et Développement. Développer et maintenir des pipelines de transformation : concevoir et maintenir des flux de données en SQL et Python , sur BigQuery ou équivalents. Vous transformerez les données générées par nos clients et les enrichirez avec des sources tierces. Améliorer et documenter les flux de données : faire évoluer les pipelines selon les besoins métiers et techniques, tout en assurant une documentation claire et à jour sur la traçabilité des données. Data Analysis Vous soutenez l’équipe Data & Performance dans l’analyse et l’exploitation des données afin de favoriser la prise de décision stratégique et la compréhension des indicateurs clés . Vos missions principales : Création et maintenance de dashboards Power BI Explorer le Sincro Data Warehouse et concevoir des KPIs pertinents . Développer et maintenir des dashboards Power BI à destination des équipes métier et des clients. Conseiller les Product Owners et les utilisateurs sur les meilleures pratiques de data visualisation . Analyse et interprétation des données Produire des reportings et analyses pour soutenir la stratégie d’entreprise. Identifier et comprendre les dynamiques métiers : recrutement, pipeline commercial, sourcing de talents, contractualisation, facturation, comptabilité, etc. Profil recherché Expérience et formation Minimum 4 ans d’expérience en data analyse ou analytics engineering. Formation Bac +5 (école d’ingénieurs, master Big Data, mathématiques/statistiques ou équivalent). Bonne compréhension des enjeux de gestion d’entreprise . Une expérience en DataOps est un réel atout. Qualités personnelles Organisé·e, rigoureux·se, curieux·se et autonome. Excellente communication écrite et orale, esprit d’équipe et aisance relationnelle. Bon niveau d’anglais (oral et écrit). Goût pour l’apprentissage et l’autoformation, notamment sur des aspects techniques. Compétences techniques Domaine Compétences attendues BI / Data Visualisation Maîtrise indispensable de Power BI SQL Solide expérience en manipulation de données ( BigQuery, MySQL, Fabric , etc.) ETL / Data Transformation Expérience avec Azure Data Factory , dbt , Dataiku ou équivalents Comptabilité & Finance d’entreprise Connaissances en analyse de données dans ces domaines appréciées Langages Bonne maîtrise de SQL , notions de Python appréciées Machine Learning Connaissances de base bienvenues Ce que nous vous offrons Une place centrale dans la construction de la culture Data chez Sincro Solutions. Un projet stimulant , à fort impact, dans un environnement technique exigeant et bienveillant. Une autonomie réelle dans l’organisation de votre travail et vos choix techniques. Des collaborateurs engagés et une équipe attachée à la qualité, à la coopération et à la montée en compétence continue.
Freelance

Mission freelance
Data Analyst / Data Product Owner

Publiée le
Data governance
Data quality
Data visualisation

6 mois
400-450 €
Lille, Hauts-de-France
Dans le cadre de la transformation digitale d’un acteur majeur de l’agroalimentaire, le consultant interviendra au sein d’une équipe Data & Analytics pour accompagner les directions métiers (RH, Finance, Marketing, Opérations) dans la valorisation de leurs données. Les missions porteront sur : Cadrage fonctionnel des cas d’usage en lien avec les équipes métier : compréhension des besoins, identification des sources et définition des livrables. Traduction des besoins en datasets, indicateurs (KPIs) et tableaux de bord dans Power BI / Fabric. Exploration et analyses ad hoc pour appuyer les prises de décision opérationnelles. Documentation, contrôle qualité et gouvernance des données . Participation aux POC IA / data science , en coordination avec les Data Engineers et les équipes techniques. L’objectif est de renforcer la fiabilité, la cohérence et la lisibilité des données pour améliorer le pilotage des activités du groupe.
Freelance
CDI

Offre d'emploi
Tech Lead Snowflake

Publiée le
Apache Airflow
AWS Cloud
Snowflake

2 ans
40k-81k €
400-640 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Tech Lead Snowflake : le Tech Lead « aura donc la charge de: 1)Co-piloter la Feature Team 2)Créer un binôme fort avec son homologue ‘Produit’ (Product Owner déjà présent). 3)Encadrer les Data Engineers : 4 externes + 1 interne 4)Assurer la mise en oeuvre des bonnes pratiques de développements (DevOps, Qualité, FinOps, etc.) 5)Contribuer au cadrage, découpage & macro-estimation des nouveaux sujets. 6)Orienter les choix techniques et de modélisation (urbanisation Snowflake, patterns Archi, etc.) 7)Livrer les produits Data (Analytics & IA) suivant les engagements de qualité et de délais pris. 8)Gérer la communication et la résolution en cas d’incidents. 9)Tenir informés ses supérieurs, voir les alerter ou demander de l’aide en cas de risque ou pb. 10)Participer aux évènements organisés à l’échelle de la DATA ou de la verticale ENGINEERING.
268 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous