Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 408 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer Streaming

KLETA
Publiée le
Apache Kafka
Apache Spark

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Tech Lead EXPERT Nestjs

Codezys
Publiée le
CI/CD
Java
NestJS

12 mois
360-410 €
Lille, Hauts-de-France
Contexte de la mission Nous recherchons un Développeur expert en NestJS (avec une expérience en Java) pour occuper un rôle de Tech Lead . La mission consiste à accompagner les développeurs et à soutenir le déploiement de produits digitaux liés à la facturation électronique . Le candidat retenu travaillera en étroite collaboration avec l'équipe technique, notre équipe transverse d'Engineering, ainsi qu'avec les architectes. L'objectif est de définir et d'implémenter une architecture technique optimale, adaptée à notre stack technologique et conforme aux exigences du projet. Le Tech Lead sera en interaction régulière avec d'autres produits intégrés à notre solution, nécessitant une vision stratégique de l'architecture ainsi qu'une excellente capacité de communication pour défendre ces choix auprès des différentes parties prenantes. Il devra également savoir analyser et améliorer des solutions existantes, lorsque cela est pertinent. Objectifs et livrables Définition de l'architecture technique du produit, en conformité avec les exigences fonctionnelles et techniques. Support et accompagnement d'une équipe de développeurs pour garantir la qualité et la cohérence du développement. Conception des flux inter-applicatifs , en assurant une intégration fluide entre les différents composants du système.
CDI

Offre d'emploi
Auditeur & Data Analyst (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Python
SQL

40k-50k €
Bordeaux, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
IT Data & Integration Manager

EBMC
Publiée le
Google Cloud Platform (GCP)

6 mois
400-700 €
Paris, France
Dans le cadre de l’implémentation d’une solution d’Integrated Business Planning (IBP), nous recherchons un IT Data & Integration Manager afin de piloter le stream Data & Intégration au sein d’un programme de transformation à forte dimension métier. Le consultant interviendra dans un contexte complexe impliquant plusieurs systèmes (ERP, outils de planification, plateformes data) et une solution IBP cible, avec un rôle clé dans la définition, la coordination et la mise en œuvre des flux de données. Il sera responsable de la stratégie de data sourcing, des choix d’ingestion, de l’alignement entre besoins fonctionnels et contraintes techniques, ainsi que de la qualité et de la robustesse des intégrations. Le rôle combine pilotage transverse et implication opérationnelle, avec une responsabilité directe sur la production des spécifications fonctionnelles (API, flux fichiers) et la supervision des équipes data et intégration.
Freelance

Mission freelance
101448/Architecte Data IA Apache Kafka,Cloud Architecture Nantes

WorldWide People
Publiée le
Apache Kafka

12 mois
400-620 €
Nantes, Pays de la Loire
Architecte Data IA Apache Kafka,Cloud Architecture Nantes . Architecture au sein d'une nouvelle plateforme Data IA chez notre client. La mission consiste : - de par son expertise à accompagner le client dans cette transition technologique - à conseiller sur la nouvelle nouvelle architecture cloud-native et orienté self-service en intégrant des solutions modernes telles que Kafka, Iceberg, Trino et S3. - à accompagner l'équipe en charge du socle service data pour challenger les choix d'architecture autour des solutions d'observabilité offertes par OpenMetadata, SODA et/ou Great Expectations par exemple. - à participer à la conception d'architectures robustes et évolutives, tout en garantissant la conformité RGPD et la sécurité des données. - à travailler en étroite collaboration avec les Product Owners, Tech Lead, Data Stewards et DevOps pour assurer l'intégration harmonieuse des nouveaux produits. Qualifications demandées : Apache Kafka,Cloud Architecture.
Freelance

Mission freelance
Data scientist IA Générative

MLMCONSEIL
Publiée le
IA Générative
Python

1 an
100-480 €
Paris, France
Recherche d’un Data Scientist senior (5 à 10 ans d’expérience) avec une expertise confirmée en IA générative, notamment sur des cas d’usage basés sur RAG. Le profil devra maîtriser Python ainsi que les outils de l’écosystème GenAI tels que LangChain, Hugging Face et les bases vectorielles. . . . . . . . .. . . . . . . . .. . . . . .
Freelance
CDI

Offre d'emploi
Consultant Fonctionnel – Reprise de Données / SQL H/F

HAYS France
Publiée le
Data analysis
Data management
Data quality

1 an
40k-52k €
330-440 €
Bouches-du-Rhône, France
Nous recherchons un consultant fonctionnel spécialisé dans la reprise de données dans le cadre de projets ERP. Vous interviendrez sur l’analyse, l’extraction, la transformation et l’intégration des données de gestion et données comptables. Missions Analyser les besoins fonctionnels liés à la reprise de données. Préparer, traiter et intégrer les données dans un ERP : Commandes Factures Écritures ou données comptables Maîtriser les requêtes et manipulations SQL pour extraction, transformation et contrôle qualité. Assurer la fiabilité, la cohérence et la conformité des données reprises. Collaborer avec les équipes métier, fonctionnelles et techniques. Contribuer à la documentation et aux étapes de validation.
CDI

Offre d'emploi
Revenue Data Analyst F/H (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

60k-65k €
Voisins-le-Bretonneux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Engineer (Bordeaux)

CAT-AMANIA
Publiée le
Agent IA
DBT
ETL (Extract-transform-load)

3 mois
40k-45k €
100-350 €
Bordeaux, Nouvelle-Aquitaine
Intégré ausein de la direction IT Data, vous viendrez apporter votre expertise technique sur des sujets récents autour de l'IA pour la data. En tant que Data Engineer, et en coordination avec le reste de l'équipe, vous serez amené à : - Effectuer des alimentations de données, - Travailler en binôme avec un Data Analyst sur un sujet IA/Data. - Travailler autour d'agent IA pour du requêtage SQL en langage naturelle - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data
Freelance

Mission freelance
Ingénieur Data Oracle/SQL/Python

CS Group Solutions
Publiée le
Apache Airflow
Oracle
Python

12 mois
380-400 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Freelance

Mission freelance
Team Leader Data Engineering (H/F)

AGH CONSULTING
Publiée le
Apache Kafka
Confluence
Data management

6 mois
250-500 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Team Leader Data Engineering qui, sous la responsabilité du Head of Engineering Logistique, sera responsable de l'équipe Data Engineering dédiée à la plateforme C-Logistics. Véritable référent technique et manager opérationnel, vous agirez comme facilitateur, coach technique et moteur de la performance de l'équipe, en s'appuyant sur les principes du Lean management. Vous contribuerez à la mise en oeuvre d'une plateforme data performante, fiable et scalable, en étroite collaboration avec le Product Manager et les équipes métiers. À ce titre, vos principales responsabilités seront : -Piloter et accompagner l'équipe Data Engineering -Optimiser les processus de delivery et d'industrialisation des pipelines data -Identifier, analyser et résoudre les causes racines des incidents de production -Favoriser l'autonomie, la collaboration et la montée en compétence de l'équipe -Garantir la performance, la fiabilité et la scalabilité des solutions data -Assurer l'alignement des solutions techniques avec la vision produit -Contribuer à l'amélioration continue des pratiques techniques et organisationnelles Périmètre Le poste couvre : -La production et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics -Le partage de données avec les autres filiales du groupe -Le partage de données avec les clients B2B Environnement technique : Vous évoluerez dans un environnement data moderne comprenant : -Snowflake -SQL -Talend -DBT -Kafka -Python -Power BI Outils utilisés : -Jira -Confluence Équipe : Vous encadrerez une équipe composée de : 4 Data Engineers et 1 Lead Developer
Freelance

Mission freelance
Data Manager / Data Steward

Codezys
Publiée le
Data management
Data quality
Lean

12 mois
Rennes, Bretagne
Nous recherchons un profil capable de renforcer notre équipe de Data Management afin de soutenir la réalisation de nos engagements concernant nos offres de services dans ce domaine. Cette personne accompagnera également nos parties prenantes métier dans leurs projets liés à la gestion des données. ENJEUX La mission vise à garantir le succès des initiatives métier portant sur le catalogage des données et leur nettoyage, en particulier lors de projets de transformation majeurs. OBJECTIFS Contribuer à l’enrichissement et au renforcement de notre offre de services en Data Management (méthodologies, outils, formations, accompagnement au changement…) Faciliter la collaboration entre les équipes (Data, IT, architecture, métier) autour de la gestion des données (catalogage, qualité, documentation, sécurité, modélisation…) Professionnaliser et accompagner la montée en compétences des Data Owners, Data Stewards et Data Custodians concernant leurs rôles liés à la qualité des données Participer à l’amélioration de la culture Data au sein de l’organisation Le périmètre technique englobe : Data Gouvernance Data Management Data Quality DAMAS Méthodologies Lean et Agile Outil Blueway MyData Catalogue Tout le système d’information, incluant SIO et legacy Intelligence artificielle Objectifs et livrables Les prestations attendues, non exhaustives, comprennent : Cataloguage de données : réalisation de projets de documentation métier et technique, intégration dans l’outil My Data Catalog Data Quality Management : audits de qualité, propositions de plans de remédiation Accompagnement au changement, formation et sensibilisation Data : formation à l’utilisation de My Data Catalog, accompagnement individuel ou collectif (1 à 1, ateliers) Communication : création et diffusion de newsletters, publications sur l’intranet Participation à des réunions de communauté : Data Owners, Data Stewards, Data Custodians Les livrables attendus comprennent : Les catalogues de données dans l’outil My Data Catalog Les résultats des audits de qualité des données Supports de formation sur les outils et méthodologies de Data Management Newsletter ou autres publications destinées à la communication interne
Freelance

Mission freelance
Business Analyst Data / PO Senior

STHREE SAS pour HUXLEY
Publiée le

12 mois
75001, France
📍 Paris * 🧑‍💻 3j TT / 1j présentiel * 🚀 Début : 01/04/2026 * 🔁 Durée : 12 mois (renouvelable jusqu'à 3 ans) 🗂 Assistance technique * FR courant * EN pro - secteur : BANQUE 📊 Domaines : paiements, clients, transactions, finance, Datalake 🎯 Contexte Une personne de l'équipe arrive au terme de ses 3 ans de mission. Départ prévu en septembre, avec passation complète. Environnement à taille humaine, organisation mature, sujets data stimulants et visibilité transverse. Vous intervenez sur un périmètre riche, au cœur de la chaîne de valeur data. 🧠 Votre rôle (Business Analyst Data Senior / PO) Vous interviendrez de bout en bout : Analyse & cadrage Recueil et analyse des besoins métiers Proposition de simplifications / cibles process Rédaction des spécifications (US, AC, règles de gestion) Build & delivery Préparation du backlog et suivi des squads Dev/Ops Validation des développements Contribution aux tests, UAT, déploiement et post-prod Run / BAU Support fonctionnel (incidents & petites évolutions) Suivi de la qualité des données & investigations SQL 🔶 Mission principale : BA Data transverse Focus domaines : paiements, clients, transactions, finance , avec un fort volet spécifications + accompagnement build/BAU et une expertise migration / validation des données . 📦 Livrables Specs fonctionnelles & règles de gestion US / AC, data dictionary, schémas de modélisation Plans de tests & support UAT Support BAU ➕ Livrables additionnels (migration & qualité de données) Stratégie de migration, mapping, règles de transformation Plans de validation (comptages, réconciliations, seuils) Rapports de qualité & readiness cutover ✅ Profil recherché BA Data Senior : autonome, transverse, orienté valeur métier Excellente maîtrise : modélisation , rédaction de specs , tests Très bonne compréhension des environnements Datalake SQL confirmé pour investigations & contrôles fonctionnels Contexte bancaire apprécié (paiements / clients / transactions / finance) Expérience concrète en migration de données : mapping, transformation, qualité, réconciliations, gestion des écarts
Freelance

Mission freelance
Data analyst GCP (H/F) - 94

Mindquest
Publiée le
Google Cloud Platform (GCP)

4 mois
110-480 €
Ivry-sur-Seine, Île-de-France
Dans le cadre de la mise en conformité réglementaire liée à la Facturation Électronique, notre client lance un chantier stratégique d'assainissement et d'analyse de données. L'enjeu est de garantir que les référentiels (Produits, Fournisseurs, Taxes) et les flux financiers sont prêts pour les nouvelles exigences légales. En tant que Data analyst vos missions seront de : * Analyse Exploratoire : Investiguer et manipuler des données brutes pour en extraire de la valeur et identifier les anomalies de structuration. * Audit de Conformité : Vérifier l'alignement des référentiels produits et fournisseurs avec les exigences de la facturation électronique (TVA, SIRET, règles de facturation). * Architecture & Flux : Concevoir et maintenir des pipelines de données via des API, Cloud Run ou Cloud Functions. * Analyse d'Impact : Réaliser des analyses croisées complexes entre les flux logistiques (Retail) et les flux financiers/comptables. * Pilotage : Concevoir des rapports et indicateurs sous Looker Studio pour monitorer l'avancement de la mise en conformité.
Freelance
CDI

Offre d'emploi
IT Data & Integration Manager

Taimpel
Publiée le
API
Architecture
Pilotage

1 an
59k-70k €
570-660 €
Paris, France
Contexte de la mission MH IS&T a lancé la mise en œuvre d’un outil d’ Integrated Business Planning (IBP) : Kinaxis Maestro . Il s’agit d’un programme de transformation , et non d’un simple projet d’implémentation IT. Une équipe Core Solution et une équipe Data & Integration travaillent en parallèle, en collaboration avec les équipes métiers et l’intégrateur, afin de construire la solution. Dans ce contexte, recherche un IT Data & Integration Manager pour renforcer l’équipe en place. Cette personne sera responsable de : piloter et gérer la mise en œuvre de l’ensemble des flux de données, assurer la coordination avec les équipes internes (IT et métiers), travailler avec l’intégrateur, superviser les différentes tâches et équipes pour garantir le respect : du périmètre, de la qualité, des délais, intervenir également en exécution opérationnelle (pas uniquement en pilotage). Rôle côté intégration Pour l’équipe d’intégration, cette personne devra : fournir les spécifications nécessaires : APIs transferts de fichiers L’équipe Data & Integration est responsable de la mise en place des flux entre : les systèmes et la solution Kinaxis Maestro Ces flux doivent être construits : selon l’architecture définie selon les spécifications produites par cette personne Rôle côté Data (mode Agile) Cette personne agira également comme Product Owner des produits data , avec les responsabilités suivantes : Faire le lien entre besoins métiers et données Prioriser les sujets Définir les règles de transformation des données Activités principales : Recueillir les besoins et spécifications (outil : Jira) Prioriser et suivre les sprints Participer aux cérémonies Agile Contexte SI Plusieurs systèmes doivent être connectés à Kinaxis Maestro : SAP ECC SAP Business One Anaplan Outil de budget etc. La connexion se fait via la Kinaxis Integration Layer , où l’intégrateur implémente les règles de transformation. Objectifs et livrables Responsabilités clés Piloter les spécifications fonctionnelles du stream Data & Integration Garantir le respect de l’architecture cible Garantir le respect des bonnes pratiques et standards S’assurer que la solution d’intégration : est optimisée est stable couvre les besoins Produire et maintenir la documentation fonctionnelle et technique Adopter une approche design-to-run pour faciliter le passage en RUN Missions principales Pilotage du stream Data & Integration Définition de la stratégie de sourcing des données Choix de la stratégie d’ingestion : utilisation ou non de la plateforme data arbitrage entre attentes métiers et contraintes techniques Alignement fonctionnel / technique sur les référentiels transverses : Produits Clients Pilotage de la delivery du stream Participation aux réunions projet Reporting d’avancement et gestion des risques Point de contact principal pour l’intégrateur sur les sujets data Coordination & cadrage Identifier les besoins data avec les équipes métiers Traduire ces besoins en spécifications Collaborer avec les équipes IT internes et l’intégrateur Stratégie technique Définition des environnements : dev staging production Définition de la stratégie de test : données nécessaires planning organisation des tests Mise en œuvre des flux Organisation des extractions et intégrations depuis les systèmes Travail avec l’intégrateur sur les règles de transformation Construction de la couche d’intégration Pilotage des phases projet Mise en place des flux Conversion des données Tests unitaires Tests de masse UAT Mise en production Passage en RUN Automatisation des interfaces Qualité & amélioration Capitalisation documentaire : scripts de test schémas d’architecture règles data Challenge des choix techniques Recommandations d’amélioration Collaboration avec l’Enterprise Architect Mise en place du monitoring des interfaces Définition de KPI Compétences demandées Compétences techniques Connaissance Supply Chain → Avancé GCP BigQuery → Expert Anglais courant (oral et écrit) → Expert Expérience Product Owner data → Expert Gestion de systèmes complexes → Expert Capacité à vulgariser des sujets complexes → Expert Expérience API / fichiers / retry / delta → Expert Connaissance ERP (SAP ECC, SAP B1, S/4 Hana) → Expert Architectures distribuées / ELT / ETL → Expert Expérience secteurs FMCG / Retail / Luxe → Expert MS Office 365 → Expert Expérience architecte data fonctionnel / lead stream data → Expert Communication & organisation → Expert Axway, GCP, design patterns → Avancé Design d’API & protocoles d’intégration → Expert Français → Expert Méthodologie Agile → Expert 🎯Ce besoin est : senior hybride : Architecte + PO + Delivery Lead orienté : intégration SI complexe data flows coordination multi-équipes 👉 Ce n'est pas juste un besoin de Data Engineer. 👉 Il faut quelqu’un qui a déjà : piloté un stream data Travaillé avec intégrateur Déjà fait du SAP + data + API
Freelance

Mission freelance
Proxy Product Owner Data Freelance

SURICATE IT
Publiée le
Dataiku
Finance
P2P

3 ans
Puteaux, Île-de-France
Proxy Product Owner Data Freelance – Corporate Finance Transformation 📍 Informations mission 👤 Expérience : 10 ans MINIMUM requis 🚀 Démarrage : ASAP ⏳ Durée : 3 ans 🏠 Télétravail : 1 jour par semaine (non négociable) 🌍 Anglais : bon niveau requis 💰 TJM : selon profil 🌍 Localisation : Puteaux Nous recherchons un Proxy Product Owner Data pour accompagner le programme de transformation Corporate Finance au sein du Group Data Office . Le rôle consiste à garantir que les initiatives de transformation Finance intégrant une dimension data sont correctement identifiées, structurées et alignées avec les standards data du groupe , tout en assurant une delivery efficace . Le poste agit comme un pont entre les équipes Finance, IT et Data afin de permettre une transformation data-driven des processus Finance. 🎯 Missions principales Identifier les initiatives Finance ayant un impact data Traduire les besoins métier Finance en exigences data et techniques Garantir l’alignement avec les standards et patterns d’architecture du Group Data Office Contribuer à l’ automatisation des processus Finance Coordonner les équipes Finance, IT et Data pour assurer la delivery Assurer le suivi des projets, reporting et gestion des parties prenantes Les initiatives portent notamment sur : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus Finance Use cases data et analytics 🌍 Environnement Rôle stratégique à l’interface entre Corporate Finance et Data , contribuant à accélérer la transformation data-driven des fonctions Finance dans un environnement international.
2408 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous