Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 993 résultats.
Freelance
CDI

Offre d'emploi
Data Engineering Java / Scala Expérimenté

Espritek
Publiée le
DBT
Java
MySQL

3 ans
Paris, France
Intégré(e) dans les équipes Plateforme Data le/la consultant(e) aura pour mission de concevoir, développer et maintenir des solutions de traitement de données à grande échelle, en utilisant des technologies telles que BigQuery, BigTable, Apache Kafka et Apache Spark. Mais aussi contribuer à des projets Data en apportant son expertise sur les tâches suivantes : montée en compétence sur l'ETL BigL, participation à la réalisation de projets métier dans le cadre de la solution offline ELT in-House Big Loader et BDI/DBT,[Saut de retour à la ligne]Le/la consultant(e) travaillera en étroite collaboration avec les équipes de développement et de production afin de garantir la qualité et la performance des solutions mises en place.[Saut de retour à la ligne] Livrables : Accompagner techniquement les autres membres de l'équipe (juniors) Active participation aux choix d'architecture technique Livrer les composants
Freelance
CDI

Offre d'emploi
Expert Data Engineering / DevOps AWS sur Plaisir

EterniTech
Publiée le
AWS Glue
DevSecOps
ETL (Extract-transform-load)

3 mois
Plaisir, Île-de-France
Je cherche pour un de mes client un Expert Data Engineering / DevOps AWS sur Plaisir Démarrage souhaité : ASAP Localisation : Plaisir Rythme : 3 jours sur site / semaine, 2 jours en télétravail Expérience requise : minimum 10 ans Langues : Français : échanges DSI / métiers Anglais : documentation et communication avec les filiales Contexte de la mission Dans le cadre de la mise en place de la dataplateforme SAO , un grand groupe industriel du secteur aéronautique recherche un expert Data Engineering / DevOps AWS capable de : Finaliser un premier use case d’ingestion de données ERP vers la dataplateforme. Industrialiser l’ingestion d’environ 120 tables. Automatiser les flux entre les couches Raw Data et Standardized . Accompagner la montée en compétence des équipes internes juniors. Documenter les travaux réalisés et sécuriser l’exploitabilité de la solution Attendus de la mission : Le profil devra intervenir sur la conception, l’industrialisation et l’accompagnement des équipes . 1. Volet Data Engineering AWS Analyse des besoins métiers autour des produits data Contribution aux spécifications fonctionnelles et techniques Conception d’architectures data adaptées à AWS Mise en place de pipelines d’ingestion robustes et automatisés Ingestion de données structurées, semi-structurées et non structurées Industrialisation des flux ERP / datalake vers la dataplateforme Automatisation du passage Raw Data → Standardized Production ou validation des data products Mise en place des bonnes pratiques de sécurité, scalabilité et conformité 2. Volet DevOps / industrialisation Mise en place ou optimisation des processus CI/CD Gestion des environnements DEV / PREPROD / PROD Déploiements non régressifs de data products Versioning du code, des schémas et de la data Supervision technique des traitements Pilotage des tests techniques, métiers, performance et sécurité Assistance au démarrage et suivi post-mise en production 3. Volet documentation / transfert de compétences Rédaction de la documentation projet, technique et utilisateur Rédaction des modes opératoires et cahiers de recette Transfert de compétences auprès des équipes internes Accompagnement des équipes juniors Digit SAO et Data Engineering Reporting hebdomadaire et remontée des risques / points d’avancement
CDI

Offre d'emploi
Développeur Data industrelle/MES H/F

VIVERIS
Publiée le

45k-55k €
France
Contexte de la mission : Dans le cadre de la transformation digitale de ses activités industrielles, notre client, acteur majeur du secteur pharmaceutique, renforce ses équipes en charge des systèmes de gestion de production (MES) et de la valorisation des données industrielles. La mission s'inscrit au sein d'un environnement de production exigeant, avec des enjeux forts autour de la traçabilité, de la performance industrielle et de l'exploitation de données en temps réel. Le consultant interviendra en lien avec les équipes IT, les équipes métiers (production, qualité) ainsi que les systèmes industriels.L'environnement technique repose notamment sur un historian industriel (AspenTech IP.21) permettant de collecter, historiser et exploiter les données issues des équipements de production. Des développements spécifiques sont nécessaires afin de répondre aux besoins métiers en matière de reporting, d'analyse et d'intégration avec les systèmes existants. Responsabilités : Intervenir sur des activités de développement et de gestion des données industrielles, avec un rôle clé dans leur exploitation et leur valorisation Etre en charge de la conception et du développement de requêtes et scripts permettant d'extraire, transformer et structurer les données issues du système IP.21 Contribuer à l'optimisation des performances des traitements et à la fiabilisation des flux de données Participer à la compréhension des besoins fonctionnels et à leur traduction en solutions techniques adaptées Intervenir sur des sujets d'intégration avec d'autres systèmes (MES etc.).
Freelance
CDI

Offre d'emploi
Data Engineering Java / Scala Expérimenté

Espritek
Publiée le
Scala

3 ans
10k-12k €
100-160 €
France
Intégré(e) dans les équipes Plateforme Data le/la consultant(e) aura pour mission de concevoir, développer et maintenir des solutions de traitement de données à grande échelle, en utilisant des technologies telles que BigQuery, BigTable, Apache Kafka et Apache Spark. Mais aussi contribuer à des projets Data en apportant son expertise sur les tâches suivantes : montée en compétence sur l'ETL BigL, participation à la réalisation de projets métier dans le cadre de la solution offline ELT in-House Big Loader et BDI/DBT, Le/la consultant(e) travaillera en étroite collaboration avec les équipes de développement et de production afin de garantir la qualité et la performance des solutions mises en place. Livrables : ● Accompagner techniquement les autres membres de l'équipe (juniors) ● Active participation aux choix d'architecture technique Livrer les composants
Freelance

Mission freelance
Tech Lead Cloud

Sapiens Group
Publiée le
CI/CD
DevSecOps
Google Cloud Platform (GCP)

12 mois
750-790 €
Île-de-France, France
La mission consiste à concevoir et industrialiser les landing zones GCP et S3ns. Missions principales1. Cadrage et conception Définir et formaliser les architectures cibles des landing zones GCP et S3ns. Concevoir les modèles d’organisation : comptes, projets, réseaux, IAM, policies. Intégrer les exigences de la doctrine Cloud , les contraintes réglementaires et les standards de cybersécurité. Identifier les patterns de développement, déploiement, gouvernance et supervision . 2. Mise en œuvre technique Concevoir, automatiser et industrialiser les landing zones via Terraform ou équivalent (IaC) . Mettre en place les fondations Cloud : IAM / RBAC Réseau, segmentation et interconnexions Logs, monitoring, alerting et observabilité Catalogue de services autorisés Sécurité (CSPM, KMS, conformité) Définir et accompagner l’implémentation des pipelines CI/CD associés. 3. Gouvernance, sécurité et conformité Définir les patterns d’accostage et bonnes pratiques d’usage. Mettre en œuvre des contrôles automatisés de sécurité et conformité. Collaborer étroitement avec les équipes cybersécurité et architecture . 4. Accompagnement des projets Soutenir les équipes applicatives dans l’adoption des nouveaux environnements Cloud . Analyser les besoins des projets et faire évoluer les landing zones en continu. Contribuer à la documentation, formation et montée en compétences des équipes internes. 5. Coordination et communication Collaborer avec les équipes Présenter les choix d’architecture, décisions techniques et feuilles de route. Participer aux instances et cérémonies projet , et contribuer au pilotage global. Déplacements ponctuels sur les sites de Levallois, Niort et Le Mans.
Freelance
CDI

Offre d'emploi
Business Analyst DATA

QUANTEAM
Publiée le
Python
SQL

3 ans
Paris, France
Le consultant doit posséder de solides compétences en Business Analysis et en Data, de très bonnes capacités de structuration et de communication, et être capable de diriger des équipes. > 5 ans d'expérience et le consultant doit être titulaire d'un diplôme d'ingénieur (obligatoire) Le ou les consultants proposés pour cette mission doivent posséder une vaste expérience dans les activités décrites ci-dessous, ainsi que d'excellentes capacités d'analyse, de la rigueur, et de bonnes aptitudes à l'écoute et à la communication. Le ou les consultants proposés pour cette mission doivent posséder une vaste expérience dans les activités décrites ci-dessous, ainsi que : Bac +5 et diplôme d’ingénieur obligatoire Solides expériences en tant que BA dans des équipes IT. Fondamentaux du métier de BA (compréhension des besoins, spécifications, tests et automatisation des tests, animation d’atelier…) Solide expérience sur des projets data : modélisation de data model, SQL, architecture data, analyse des data approfondie Dynamisme et proactivité dans la démarche d’analyse ou projet, structuré et bonne expression orale. Anglais requis. Capacité de travail avec plusieurs équipes dans un contexte de transformation multi pays 5 ans d’expérience minimum
Freelance

Mission freelance
Consultant Architecte BI / Data – Boulogne-Billancourt (92)

Mon Consultant Indépendant
Publiée le
Azure
Azure Synapse
Data Lake

1 mois
350-400 €
Boulogne-Billancourt, Île-de-France
Consultant Architecte BI / Data – ERP M3 / Azure 📍 Boulogne-Billancourt (92) 🏢 Présentiel (5j / semaine) ⏱ 6 mois renouvelables – temps plein 💰 TJM : 550 € HT 🚀 Démarrage ASAP Objectif :Structurer une architecture décisionnelle robuste et fiabiliser les plateformes BI dans un environnement complexe. Mission : Définition et mise en œuvre de l’architecture BI / data Stabilisation et optimisation des environnements existants Intégration des flux ERP Movex / M3 , SQL Server, Netezza Déploiement data sur Azure (Synapse, Data Lake) Structuration du reporting ( Power BI, MicroStrategy ) À savoir Présence sur site requise. Mission technique et structurante, avec attendu fort sur delivery et stabilisation rapide.
Freelance

Mission freelance
Data Governance Manager

Codezys
Publiée le
Conduite du changement
Data governance
Data management

6 mois
330-400 €
Bordeaux, Nouvelle-Aquitaine
Objectifs de la prestation Dans le cadre de la consolidation de sa gouvernance data, l'entreprise souhaite renforcer et structurer ses pratiques en s'appuyant sur un environnement technologique avancé, comprenant les plateformes Snowflake, Power BI et Datahub. Pour cela, l'équipe Data Management, composée de 4 professionnels, recherche un expert transverse afin de piloter la structuration, le déploiement et l'animation de la gouvernance opérationnelle. Mandat confié Déploiement du modèle de Data Stewardship Clarifier les rôles, périmètres et rituels entre Data Owners, Data Stewards et équipes techniques. Créer des kits d'onboarding, des standards et des supports pour accompagner les Data Stewards dans leur mission. Lancer et animer la communauté de Data Stewards afin de promouvoir une gouvernance partagée et efficace. Adoption & Data Catalog Renforcer l'adoption du Data Catalog (Datahub) et promouvoir les bonnes pratiques de gouvernance associées. Accélérer la documentation des assets data prioritaires pour assurer une meilleure compréhension et exploitation des données. Étendre la couverture du catalogue aux traitements d'intelligence artificielle (IA), intégrant ainsi la gouvernance dès la conception. Animation & transverse Organiser des ateliers avec les utilisateurs pour favoriser l'appropriation des outils et des méthodes de gouvernance. Faire émerger les irritants et structurer un backlog transverse pour répondre aux enjeux opérationnels. Intégrer la gouvernance lors des phases de cadrage des projets, en adoptant une approche 'governance by design'. Réactiver les communautés existantes, notamment les référents Power BI, afin de maintenir une dynamique de partage et de collaboration. Profil recherché Le candidat idéal devra posséder une expertise transverse en gouvernance data, avec une capacité à intervenir à la fois au niveau stratégique et opérationnel. Il devra démontrer des compétences en animation de communautés, en structuration de processus et en animation d'ateliers, tout en étant capable de travailler en étroite collaboration avec les équipes techniques et métier. Les propositions devront détailler la méthodologie proposée pour atteindre ces objectifs, ainsi que la démonstration de capacités similaires dans des environnements complexes et structurés.
Freelance

Mission freelance
Directeur de projet IT - Data & SaaS

FINAX Consulting
Publiée le
Finance

7 mois
400-850 €
Paris, France
Nous recherchons un Directeur de projet IT pour le compte d’un de nos clients, une banque de développement, dans le cadre d’un projet de pilotage de la mesure d’impact et de redevabilité des financements (ODD). Dans un environnement IT structurant, vous interviendrez sur le pilotage d’une solution SaaS dédiée à la gestion des données d’impact, avec des enjeux forts de qualité de données, de coordination multi-acteurs et de delivery. 🔹 Pilotage global du projet (planning, budget, risques, reporting) 🔹 Animation des ateliers et coordination métier / DSI / intégrateurs 🔹 Mise en œuvre et animation des pratiques Agile / Scrum 🔹 Définition et pilotage de la stratégie de tests (Squash) 🔹 Suivi des sujets de reprise et qualité de données 🔹 Contribution aux sujets d’architecture et interfaces Profil recherché : Directeur de projet IT avec 10+ ans d’expérience Forte expertise en pilotage de projets complexes Maîtrise des environnements Agile, Jira, Squash, MS Project Expérience en data (qualité, reprise, tests) et solutions SaaS Capacité à challenger les enjeux techniques et métiers Paris + télétravail Démarrage : juin 2026 Mission longue durée (plusieurs tranches)
CDI
Freelance

Offre d'emploi
Ingénieur Data Expert Python & Kafka

Deodis
Publiée le
Apache Kafka
Python

1 an
40k-51k €
400-500 €
Île-de-France, France
Nous recherchons un(e) Ingénieur Data Senior expert Python pour concevoir, développer et maintenir une plateforme de données robuste et performante dans un environnement entièrement on-premise. Vous interviendrez sur la mise en place de pipelines batch et temps réel à grande échelle en vous appuyant sur des technologies telles qu’Apache Kafka, Flink, Airflow et la stack ELK. Vous serez responsable de la fiabilité, de la qualité et de la résilience des traitements de données, tout en collaborant étroitement avec les équipes Data et DevOps sur les sujets d’architecture, d’industrialisation et d’exploitation des infrastructures. Le poste requiert une forte expertise en développement Python en production, ainsi qu’une solide maîtrise des environnements distribués, du streaming et des problématiques de performance et d’observabilité.
Freelance
CDI

Offre d'emploi
📩 Data Engineer – Data Quality & Governance

Gentis Recruitment SAS
Publiée le
Agile Scrum
Apache Spark
API

1 an
Paris, France
Contexte de la mission Dans le cadre du développement de son équipe Data Accelerator (DAC), notre client recherche un Data Engineer confirmé orienté Data Quality et Data Governance. DAC est une équipe transverse en charge d’accompagner les équipes métiers et IT sur l’ensemble de la chaîne de valeur de la donnée : collecte, ingestion, transformation, industrialisation, gouvernance et optimisation des performances. L’environnement s’appuie principalement sur les technologies AWS, Databricks, Dataiku et Collibra, avec un fort enjeu autour de la qualité, de la fiabilisation et de la structuration des données au sein du Data Lake. Le consultant interviendra dans un contexte stratégique avec une forte collaboration avec les équipes Data Analysts, Data Scientists ainsi qu’avec le Chief Data Officer. Missions principalesQualification et gestion des données Captation des données structurées et non structurées provenant de multiples sources Intégration et supervision des flux de données Structuration de la donnée (normalisation, sémantique, référentiel) Cartographie des données disponibles Nettoyage des données (suppression des doublons, contrôle qualité) Validation et qualification des données avant intégration dans le Data Lake Participation à la création et à l’amélioration des référentiels de données Industrialisation et performance Développement et optimisation des traitements data Amélioration des performances et maîtrise des coûts des plateformes data Participation aux développements correctifs, évolutifs et adaptatifs Contribution aux dossiers d’architecture Production des tableaux de bord de suivi Gouvernance & collaboration Participation à la définition de la politique data Respect des standards de sécurité, gouvernance et conformité Collaboration avec les équipes métiers, IT et gouvernance data Contribution à l’industrialisation des cas d’usage Data & GenAI
Freelance
CDI

Offre d'emploi
Business Analyst Technique – Projet Data (H/F)

CELAD
Publiée le
BigQuery
Business Analyst
Google Cloud Platform (GCP)

6 mois
40k-45k €
350-490 €
Trappes, Île-de-France
Vous souhaitez intervenir sur un programme stratégique de transformation digitale à grande échelle dans un environnement industriel innovant ? Nous recherchons un.e Business Analyst Agile technique pour rejoindre une équipe travaillant sur une plateforme nouvelle génération autour de la data et du cloud. Vos missions Au sein d’une équipe Agile, vous interviendrez sur des sujets à forte dimension fonctionnelle et technique : Analyse des besoins métier et cadrage fonctionnel Rédaction des User Stories et spécifications fonctionnelles Analyse des incidents et investigations sur les flux applicatifs Participation à l’évolution de l’architecture cible de la plateforme Validation des flux et tests end-to-end Collaboration avec les équipes Produit, Data, Cloud et Développement Contribution aux bonnes pratiques projet et à l’amélioration continue Environnement technique GCP BigQuery SQL avancé APIs REST JSON GitHub / VS Code Agile / Scrum Gherkin Data Platform & systèmes industriels
Freelance

Mission freelance
Profil RDARR, data quality, data lineage, data governance

Mon Consultant Indépendant
Publiée le
Data management

6 mois
480-520 €
Paris, France
Pour le compte de l’un de nos clients du secteur bancaire , nous recherchons un consultant spécialisé en data management réglementaire , avec une expertise sur les dispositifs RDARR et BCBS 239 . Le consultant interviendra sur les sujets de data quality, data lineage et data governance , en contribuant à la mise en conformité et à l’amélioration des dispositifs de gestion des données. Il participera à l’analyse des processus, à la définition des règles de gouvernance et au suivi des exigences réglementaires. Le poste requiert une solide connaissance des environnements bancaires et des enjeux liés à la qualité et à la traçabilité des données.
CDI

Offre d'emploi
Ingénieur DataOps/ Administrateur·rice Systèmes & Data H/F

TOHTEM IT
Publiée le

35 500-40k €
Toulouse, Occitanie
Ta mission Tu assures l’administration, l’exploitation et l’optimisation des plateformes Data, des infrastructures applicatives et des environnements systèmes dans des contextes Data et Cloud. Le poste est fortement orienté autour des flux de données, des traitements ETL, de l’automatisation des chaînes de production et de la fiabilisation des plateformes techniques. Tu interviens également sur les sujets de supervision, de déploiement, d’industrialisation et de performance des environnements Data, en collaboration avec les équipes projets et métiers. Tes activités principales Administration systèmes et infrastructures Administrer et maintenir les environnements Windows et Linux Gérer les serveurs IIS et Apache Assurer l’administration des bases MSSQL Participer au maintien en condition opérationnelle des infrastructures applicatives Garantir la disponibilité, la performance et la sécurité des systèmes Supervision, exploitation et production Data Mettre en œuvre et administrer les outils de supervision des plateformes Data et infrastructures techniques (Zabbix ou équivalent) Assurer le suivi des alertes, incidents et performances des traitements applicatifs et flux de données Gérer les ordonnanceurs de traitements et chaînes batch (VTOM ou équivalent) Superviser les transferts de fichiers et échanges inter-applicatifs via CFT ou outils équivalents Assurer la gestion, la centralisation et l’analyse des logs via ELK, Splunk ou solutions similaires Garantir la continuité de service des environnements de production Data Automatisation et déploiement Développer et maintenir des scripts d’automatisation (PowerShell, Shell ou équivalent) Participer à l’industrialisation des déploiements Administrer et faire évoluer les chaînes CI/CD Utiliser des outils tels que XL Deploy, Ansible ou équivalents Participer à la conteneurisation des applications Data, ETL et middleware Administrer et exploiter les plateformes de traitement de données et environnements ETL Assurer le bon fonctionnement des flux de données, traitements batch et échanges applicatifs Intervenir sur les technologies Semarchy, Apache Tomcat, MSSQL, MongoDB et Trdata Superviser les traitements de données critiques et garantir leur disponibilité Participer à l’optimisation des performances des plateformes Data Assurer le suivi des incidents liés aux flux de données et traitements applicatifs Contribuer à l’industrialisation et à l’automatisation des pipelines Data Cloud et méthodes de travail Participer aux projets d’infrastructure Cloud Public (GCP ou équivalent) Travailler en méthodologie Agile Collaborer avec les équipes de développement, production et exploitation Participer aux réunions de suivi et aux démarches d’amélioration continu
Freelance
CDI

Offre d'emploi
Senior Data Engineer GCP

Octopus Group
Publiée le
Google Cloud Platform (GCP)

12 ans
40k-45k €
400-550 €
Île-de-France, France
Contexte : Dans le cadre du renforcement d’une plateforme Data Cloud à forte volumétrie, nous recherchons un Senior Data Engineer afin d’intervenir sur la conception, l’industrialisation et l’optimisation des pipelines de données dans un environnement cloud moderne orienté temps réel et batch processing. Missions : Concevoir, développer et maintenir des pipelines de données batch et temps réel Participer à l’architecture et à l’évolution de la plateforme Data sur GCP Mettre en place les flux d’ingestion, transformation et exposition des données Optimiser les performances et la fiabilité des traitements data Industrialiser les déploiements via des pipelines CI/CD Automatiser l’infrastructure cloud avec Terraform Participer aux bonnes pratiques Data Engineering / DataOps / DevOps Développer et exécuter les tests fonctionnels des pipelines Assurer le monitoring et le support des traitements en production Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build, Pub/Sub, Artifact Registry) Terraform Python SQL CI/CD Airflow / orchestration Architecture cloud-native Contexte : Dans le cadre du renforcement d’une plateforme Data Cloud à forte volumétrie, nous recherchons un Senior Data Engineer afin d’intervenir sur la conception, l’industrialisation et l’optimisation des pipelines de données dans un environnement cloud moderne orienté temps réel et batch processing. Missions : Concevoir, développer et maintenir des pipelines de données batch et temps réel Participer à l’architecture et à l’évolution de la plateforme Data sur GCP Mettre en place les flux d’ingestion, transformation et exposition des données Optimiser les performances et la fiabilité des traitements data Industrialiser les déploiements via des pipelines CI/CD Automatiser l’infrastructure cloud avec Terraform Participer aux bonnes pratiques Data Engineering / DataOps / DevOps Développer et exécuter les tests fonctionnels des pipelines Assurer le monitoring et le support des traitements en production Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build, Pub/Sub, Artifact Registry) Terraform Python SQL CI/CD Airflow / orchestration Architecture cloud-native
Freelance
CDI

Offre d'emploi
Stream Lead Intégration & Data Migration IT

VISIAN
Publiée le
Cloud
Streamlit

1 an
Île-de-France, France
Contexte Nous recherchons pour la Direction des Services d’Information un Stream Lead Intégration & Data Migration IT. Missions Coordination de la conception des interfaces : coordonner le recueil des exigences fonctionnelles et techniques pour l'interfaçage de la plateforme avec les applications Legacy du SI. Pilotage de l'implémentation : assurer le suivi de bout en bout de la réalisation des interfaces et des flux de données, en gérant les interdépendances avec les autres streams du programme. Pilotage des partenaires : diriger les activités de l’éditeur externe pour garantir le respect des délais et de la qualité des livrables techniques.
1993 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous