Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 528 résultats.
Freelance

Mission freelance
Chef de Projet Talend Data Integration – ETL & Streaming (Talend / Kafka) -- 92

Montreal Associates
Publiée le
Apache Kafka
API
Confluence

7 mois
550-700 €
Puteaux, Île-de-France
🚀 Chef de Projet Talend Data Integration – ETL & Streaming (Talend / Kafka) Dans un contexte grand groupe international et multiculturel, vous pilotez les services d’intégration data autour des plateformes Talend (Cloud & hybride) et Kafka Confluent , avec des enjeux forts de scalabilité, performance et gouvernance data . • Pilotage du RUN et des projets (CRM, PIM, annuaire…) • Cadrage des besoins, architecture et conception des flux data • Management d’une équipe offshore (Inde) • Suivi opérationnel des plateformes Talend & Kafka (monitoring, upgrade, incidents) • Gestion du capacity planning & facturation • Définition et diffusion des bonnes pratiques data & intégration 🔎 Ce que l’on recherche Un Chef de Projet Data très opérationnel , capable de piloter à la fois le RUN et les projets, avec une vraie expertise technique ETL/streaming et une capacité à gérer des environnements complexes à grande échelle. #Data #ETL #Talend #Kafka #Streaming #DataEngineering #ProjectManager #Freelance
CDI

Offre d'emploi
Consultant Data Digital - Google Suite / Piano Analytics F/H

Experis France
Publiée le

40k-45k €
Niort, Nouvelle-Aquitaine
Consultant Data Digital - Google Suite / Piano Analytics F/H - Niort Le contexte Experis recrute un Consultant Data Digital F/H pour intervenir au sein d'un grand acteur du secteur de l'assurance , dans un environnement digital à forte volumétrie de données. Vous intégrerez une équipe en charge de la collecte, de la transformation et de la restitution des données issues des canaux digitaux, au sein d'une organisation agile fonctionnant en mode SAFe , avec des livraisons régulières et orientées valeur métier. Vos missions Au cœur des enjeux data et reporting, vous interviendrez sur l'ensemble de la chaîne de valorisation des données digitales : Collaborer avec les équipes produit et métier pour définir les objectifs et KPI des features Accompagner la définition des besoins en tracking digital (Piano Analytics / GTM) Recetter les données en phase de test et après mise en production Préparer, transformer et ingérer les données dans BigQuery (Node.js) Mettre à disposition des données fiabilisées dans Looker Studio Participer à l'analyse des données produites et à l'identification d'axes d'amélioration En complément, vous serez amené(e) à : Superviser le bon fonctionnement des flux d'ingestion quotidiens et corriger les anomalies Intégrer de nouvelles sources de données pour le pilotage global des KPI Contribuer à l'amélioration continue des tracking, process et pratiques data Communiquer activement avec les équipes pluridisciplinaires (PO, UX, développeurs, testeurs, architectes)
Freelance

Mission freelance
POT9115 - Un Data Engineer Airflow Confirmé sur Tours

Almatek
Publiée le
Python

6 mois
Tours, Centre-Val de Loire
Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage
Freelance

Mission freelance
Data Engineer expérimenté (H/F) - Nantes

CAT-AMANIA
Publiée le
Ansible
Data Engineering
Data Warehouse

1 an
Nantes, Pays de la Loire
Dans le cadre du renforcement d’une équipe Data stratégique, nous recherchons un Data Engineer expérimenté pour intervenir sur des projets à forte valeur ajoutée autour d’un socle data en constante évolution. Vous intégrerez une équipe agile composée d’experts data, d’un Scrum Master et d’un Product Owner, dans un environnement collaboratif axé sur l’innovation et l’excellence technique. La mission s’inscrit dans une dynamique combinant : Build : conception et développement de solutions data Run : maintien en conditions opérationnelles et optimisation continue Migration : accompagnement des évolutions techniques (notamment ETL → ELT) Modernisation : transformation vers des architectures data modernes Vos missions principales : Développer des traitements ELT (principalement xDI) pour alimenter un Datawarehouse Maintenir et faire évoluer les templates techniques Participer à la roadmap de migration (ETL vers ELT) Accompagner les équipes utilisatrices des solutions data Documenter les solutions mises en place Garantir la performance et la stabilité des traitements en production Identifier et proposer des optimisations dans une logique d’amélioration continue Partager vos connaissances et contribuer à la montée en compétence de l’équipe
Freelance

Mission freelance
IT Data & Integration Manager

EBMC
Publiée le
Google Cloud Platform (GCP)

6 mois
400-700 €
Paris, France
Dans le cadre de l’implémentation d’une solution d’Integrated Business Planning (IBP), nous recherchons un IT Data & Integration Manager afin de piloter le stream Data & Intégration au sein d’un programme de transformation à forte dimension métier. Le consultant interviendra dans un contexte complexe impliquant plusieurs systèmes (ERP, outils de planification, plateformes data) et une solution IBP cible, avec un rôle clé dans la définition, la coordination et la mise en œuvre des flux de données. Il sera responsable de la stratégie de data sourcing, des choix d’ingestion, de l’alignement entre besoins fonctionnels et contraintes techniques, ainsi que de la qualité et de la robustesse des intégrations. Le rôle combine pilotage transverse et implication opérationnelle, avec une responsabilité directe sur la production des spécifications fonctionnelles (API, flux fichiers) et la supervision des équipes data et intégration.
Alternance
CDI

Offre d'emploi
Data Analyst Supply Chain - Alternance F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
SQL

69009, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Engineer Apache NiFi/SQL/JSON/XML/API

OBJECTWARE
Publiée le
Apache NiFi
API
JSON

3 ans
40k-68k €
400-550 €
Île-de-France, France
Objectif de la mission Dans le cadre du déploiement d’une plateforme Data destinée à centraliser, fiabiliser et gouverner l’ensemble des données des domaines banque et assurance, vous intégrez la squad Data Flux. Cette équipe, composée de trois développeurs Data, d’un architecte technique, d’un Business Analyst et d’un Product Owner, est responsable des missions suivantes : la conception et l’implémentation des flux de données, l’intégration et la transformation de données provenant de sources multiples, la sécurisation et l’industrialisation des flux, en conformité avec les standards attendus en matière de qualité et de traçabilité. Une expérience dans les secteurs de l’assurance, de la banque ou de la finance est vivement recommandée, notamment sur des développements de flux conformes à la norme Penelop, ainsi que sur des flux de données liés aux domaines assurantiels ou aux données clients. - Conception et développement de pipelines de données : Concevoir des flux robustes et évolutifs pour l’ingestion, la transformation et la diffusion des données dans le cadre du modèle Bronze / Silver / Gold. - Développement et intégration sur Apache NiFi : Implémenter et paramétrer des workflows NiFi pour collecter et normaliser les données issues de différentes sources (fichiers XML/CSV, API REST). - Transformation et modélisation des données : Participer à la modélisation du socle de données structurées et au développement des transformations afin de constituer les vues consolidées du MDM. - Contrôles de qualité et traçabilité : Mettre en place des mécanismes d’audit, de logs et de contrôle (complétude, unicité, cohérence, versioning des données). - Optimisation et performance : Surveiller les performances des pipelines, identifier les goulots d’étranglement et proposer des améliorations continues. - Sécurité et conformité : Veiller à la sécurité des données (authentification, chiffrement, gestion des accès) dans le cadre des standards du groupe. - Documentation et partage de connaissances : Documenter les processus, les schémas et les bonnes pratiques afin d’assurer la maintenabilité et la transmission des savoirs au sein de la squad. PREREQUIS TECHNIQUES : - Maîtrise d’Apache NiFi (ingestion, orchestration, monitoring) - Solides connaissances en SQL et modélisation de données relationnelles (PostgreSQL) - Connaissance des modèles de stockage objet (S3, Blob) - Connaissance des formats et protocoles : JSON, XML, CSV, REST API - Compétences en scripting (Python, Bash) appréciées - Sensibilité aux enjeux de qualité, sécurité et gouvernance des données Compétences Techniques : SQL, Python, Bash, Gitlab
Freelance

Mission freelance
Data Scientist

Codezys
Publiée le
Machine Learning
Python
Pytorch

12 mois
340-430 €
Lille, Hauts-de-France
Contexte de la mission Au sein de l’équipe Recommandation, le candidat retenu jouera un rôle clé dans l’exploration et la mise en œuvre de nouveaux algorithmes visant à enrichir nos systèmes de recommandation, essentiels au bon fonctionnement de notre site. La mission consiste à concevoir, prototyper et valider des solutions innovantes reposant sur l’intelligence artificielle (IA) et l’apprentissage automatique (ML), afin d’améliorer l’expérience utilisateur et de répondre aux enjeux métier liés à la personnalisation. Vos missions principales seront les suivantes : Veille et innovation autour des systèmes de recommandation : Suivre activement les dernières avancées en IA et ML (Deep Learning, apprentissage par renforcement, etc.). Identifier et évaluer les technologies en lien avec les cas d’usage, notamment en lien avec les Large Language Models (LLM) et l’IA générative, pour définir leur pertinence et leur potentiel d’intégration. Développement et expérimentation : Concevoir, réaliser et tester des Proof of Concept (PoC) et des Minimum Viable Products (MVP) performants et sécurisés, afin de valider la faisabilité technique des solutions envisagées. Cette étape inclut une approche itérative pour maximiser l’efficacité des prototypes. Analyse de données et modélisation : Explorer des jeux de données complexes pour identifier des patterns, insights et opportunités d’amélioration. Concevoir, entraîner et affiner des modèles d’IA adaptés aux cas d’usage métiers, afin d’optimiser la pertinence des recommandations générées. Travail en équipe et partage des connaissances : Collaborer étroitement avec les équipes métiers, les Product Owners et les équipes transverses (notamment AAAI). Comprendre leurs besoins, échanger sur les avancées techniques, et assurer une documentation claire et précise des choix et des résultats obtenus. Intégration et amélioration continue : Travailler avec l’équipe AI Capabilities pour l’intégration et le déploiement des solutions IA sur les plateformes existantes (ML Solution, GenAI Solution). Contribuer à l’évolution des systèmes en intégrant les retours d’expérience et en adaptant les modèles en continu pour garantir leur performance et leur adaptéibilité. Ce poste nécessite une forte capacité d’auto-apprentissage, un esprit d’innovation, ainsi qu’une aptitude à travailler en équipe dans un environnement dynamique et technologique en constante évolution.
Freelance

Mission freelance
251774/Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN

WorldWide People
Publiée le
Snowflake

3 mois
Bretagne, France
Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN Ingénieur Data & BI (Snowflake / Qlik) Pour l'un de nos clients, nous recherchons un Ingénieur Data et BI. Périmètre Data : L'équipe Data intervient sur plusieurs domaines (Data Engineering, Data Viz, … ) Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. L'équipe intervient également à la partie reporting et administration : Conception et automatisation de rapports (Excel, PDF, …). Supervision de la plateforme Qlik : gestion des catalogues et applications, suivi des licences, clés et APIs. Diagnostic et résolution des incidents (logs, API Qlik). Compétences requises : 3 ans d'expérience sur l’utilisation de Qlik (QlikSense, QlikCloud ...) et Snowflake (préparation et optimisation des données). Bonne compréhension des principes d’architecture BI et des bonnes pratiques de modélisation. Capacité à optimiser les applications et améliorer la performance des modèles de données. Points clés pour réussir Être autonome et curieux : (forums, documentation, veille technique)... Avoir une base technique solide sur les modules de Qlik (Analyse, Automation). Comprendre les enjeux d’administration, même si ce n’est pas le cœur du métier. Être capable de diagnostiquer les problèmes d’accès, de configuration ou de logique métier. Autonome, curieux, capacités relationnelles Objectifs et livrables Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. Compétences demandées Compétences Niveau de compétence QlikCloud Avancé QLIKVIEW Confirmé Snowflake Avancé Architecture BI Confirmé QlikSense Confirmé
Freelance
CDI

Offre d'emploi
DATA ENGINEER PYTHON

UCASE CONSULTING
Publiée le
Azure
Azure Kubernetes Service (AKS)
Jenkins

3 ans
40k-60k €
500-580 €
Paris, France
2 DESCRIPTION DE LA MISSION 2.1 Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein pour 1 Data Engineers Python. Vous interviendrez d’un nouveau lot sur un projet déjà initié il y a un an. Vous intégrerez une équipe existante composée de 3 Data Engineers et d’un Chef de Projet. Au sein de l’équipe, vous aurez à charge la réalisation de ce lot projet. Le projet est piloté en agilité, par conséquent le delivery sera détaillé sous formes d’US. Chaque US comprend du développement, des tests, de la documentation. Les technologies associées sont Python, Pandas/Polars, Kubernetes et Azure. 2.2 Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; 2.3 Dates souhaitées de début et de fin de mission Date de début : 13/04/2026 Compétences sur les méthodes et les outils Requises • maîtrise du langage Python et de son écosystème (packaging, gestion de versions…) • maîtrise des librairies Data, en particulier Pandas et/ou Polars • maîtrise de la CI/CD sous Jenkins • maîtrise du cloud, en particulier Azure • expérience dans le développement de job batch sur Kubernetes (AKS) • bonnes pratiques de développement
Freelance
CDI

Offre d'emploi
Développeur SAP ABAP – Migration ECC vers S/4 HANA (SQL / Data)

Etixway
Publiée le
ABAP
SAP
SAP ABAP

1 an
40k-50k €
400-560 €
Boulogne-Billancourt, Île-de-France
Dans le cadre d’un projet de transformation majeur, nous recherchons un Développeur SAP ABAP pour intervenir sur une migration SAP ECC vers S/4 HANA . Le consultant interviendra sur des sujets techniques à forte valeur ajoutée, notamment autour de la reprise, transformation et manipulation des données SAP . Une formation est prévue sur l’outil de migration utilisé (ADM), toutefois une expérience sur des projets similaires est fortement attendue. Missions principales : Développement ABAP dans un environnement ECC / S/4 HANA Manipulation et exploitation des tables SAP Participation aux travaux de migration de données (ECC → S/4) Analyse et transformation des données Développement et adaptation des programmes existants dans un contexte de migration Collaboration avec les équipes techniques et fonctionnelles Environnement : SAP ECC, S/4 HANA, ABAP, SQL
Freelance

Mission freelance
ETL / Data Streaming Project Manager

Comet
Publiée le
Apache Kafka
API
CRM

6 mois
400-570 €
Île-de-France, France
Contexte de la mission Au sein de l’équipe Architecture et Intégration dans un contexte international et multiculturel, vous aurez pour missions principales de gérer et piloter les lignes de services intégration ETL : Talend (Cloud - plate-forme hybridé) et Data Streaming ( Kafka Confluent - Cloud) Objectifs et livrables Le support / suivi / maintenance de l’existant (Projet CRM / Annuaire / PIM) Accompagnement dans la création de nouveaux projets (analyser le besoin des clients, le challenger, cadrage technique : définition d’architecture et conception technique des flux) Piloter l’équipe en Inde (en charge des développements / tests / déploiements) Gérer un plan de charge et proposer des plannings Administration et suivi opérationnel de notre plateforme Talend et des composants On Prem (upgrade, monitoring, résolution de problème ponctuel) Administration et suivi opérationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation pour ces 2 plateformes Etablir, partager et faire partager les bonnes pratiques (configuration / développements …) Compétences demandées Connaissances CRM Salesforces - Élémentaire Talend Data Integration studio V8 - Expert API & format fichier Json, Xml, Csv - Confirmé management équipe - Confirmé Java8+ - Confirmé Linux/Unix - Confirmé KAFKA - Confirmé SQL et Base de données - Confirmé Source management ( Gitlab) - Confirmé Niveau de langue Français - Courant Anglais - Courant
Alternance
CDI

Offre d'emploi
Data Analyst Supply Chain - Alternance F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
SQL

Châlons-en-Champagne, Grand Est

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Analyst Performance

CAT-AMANIA
Publiée le
Confluence
JIRA
Tableau Desktop

12 mois
300-450 €
Lyon, Auvergne-Rhône-Alpes
Dans un contexte de pilotage de la performance IT et de suivi des activités opérationnelles, vous intervenez en tant que Data Analyst afin d’analyser les indicateurs liés au turnover IT (ressources, activité, performance, incidents) et d’identifier des leviers d’optimisation. Vous êtes en charge du suivi, de l’analyse et de la restitution des données à destination des équipes métiers et techniques, avec une forte autonomie et un rôle clé dans la prise de décision. Suivre et analyser les indicateurs de performance liés au turnover IT (entrées/sorties, staffing, charge, performance opérationnelle) Concevoir, maintenir et faire évoluer des tableaux de bord de pilotage (KPI, reporting opérationnel et stratégique) Identifier les anomalies, signaux faibles et dérives dans les données (qualité, performance, organisation) Produire des analyses détaillées et formuler des recommandations d’optimisation Consolider et fiabiliser les données issues de sources multiples Animer des réunions de restitution (comités de pilotage, comités opérationnels) Collaborer avec les équipes métiers et techniques pour activer des leviers d’amélioration Challenger les processus existants et proposer des axes d’optimisation data-driven
Freelance

Mission freelance
POT9134 - Un Consultant expert – Data Migration SAP (Alteryx apprécié) sur Toulouse

Almatek
Publiée le
Alteryx

6 mois
Toulouse, Occitanie
Almatek recherche pour l'un de ses clients, Un Consultant expert – Data Migration SAP (Alteryx apprécié) sur Toulouse Nous recherchons actuellement un consultant expert en data migration SAP, avec une maîtrise des environnements S/4HANA (héritage ECC). La connaissance d’Alteryx est appréciée. Éléments de cadrage du besoin Contexte & outils Programmes de transformation SAP S/4HANA Outils de migration incluant notamment Alteryx (flux de transformation) Positionnement Profils confirmés à seniors Intervention opérationnelle (hands-on) sur les flux de migration Capacité à structurer les travaux et à encadrer ponctuellement des profils juniors Périmètre Master Data (clients, fournisseurs, articles) Enjeux de qualité, transformation et fiabilisation Interventions possibles sur des objets transactionnels / opérationnels selon les phases Langues Français et anglais requis Niveau d’autonomie Élevé dès le démarrage Localisation : Toulouse, avec déplacements à la marge (principalement Paris) Présence : hybride (1 à 2 jours/semaine sur site, variable selon phases – cutover/go-live)
CDI

Offre d'emploi
Architecte Solution Data

VISIAN
Publiée le
ArchiMate
TOGAF

50k-62k €
Paris, France
Description et livrables de la prestation : Concevoir, valider et faire respecter l'architecture technique et fonctionnelle des solutions pour assurer leur conformité aux standards, à la stratégie IT-DATA et aux exigences de sécurité. Garantir la cohérence, la performance, la réutilisation et la gestion des risques tout au long du cycle de vie des projets. Vous aurez la responsabilité de sujets portant sur la Vision 360 Client, le MDM, etc... au sein de l'équipe Architecture Solutions Data - IA - KYC - Client Pour cela, voici les missions clés : Conception de solutions : Élaborer des dossiers de design (DDS), en intégrant les standards (refcards) et l’impact data, IA, sécurité, et digital. Pilotage et accompagnement : S’assurer de l’implémentation conforme, suivre la livraison et gérer les écarts ou remédiations. Participation à l’élaboration d’une cible d’Architecture Data en collaborant avec les architectes d’entreprise et product managers Animation transverse et gouvernance : Participer aux instances stratégiques, animer la communauté d’architectes autour de vos sujets, promouvoir les bonnes pratiques. Sécurité et conformité : Intégrer les enjeux de cybersécurité, de protection des données, et de conformité réglementaire. Défendre et promouvoir la stratégie d’architecture : principes « Tous Architectes », mise à jour du référentiel, défense de la cible d’architecture et des enjeux métier/données. Analyser et répondre aux RFP : Identifier, challenger et co-construire des solutions adaptées, auditables, et déployables. Veille technologique et marché : Maintenir une connaissance à jour des innovations (cloud, IA, Data, sécurité, microservices, API, DevSecOps).
2528 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous