Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 446 résultats.
CDI
Freelance

Offre d'emploi
QA DATA

KOUKA
Publiée le
Cypress
Data quality
Gherkin

6 mois
40k-53k €
400-450 €
Île-de-France, France
La définition et la mise en œuvre de stratégies de tests sur les flux de données La validation des données (contrôles SQL, cohérence, complétude, intégrité) La rédaction et l’exécution de cas de tests fonctionnels et techniques L’automatisation des tests (API, UI, data pipelines) La collaboration avec les équipes Data, Dev et Produit Le suivi des anomalies et leur résolution Langages / Data : SQL Gestion des tests : JIRA / XRAY Méthodologie : BDD – Gherkin Tests automatisés : Cypress Tests API : Postman / Newman CI/CD : GitLab Versioning : Git
Freelance

Mission freelance
Data Engineer GCP Airflow (H/F)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

12 mois
380-420 €
Paris, France
Data Engineer GCP/Airflow – (Freelance) Mission longue - Démarrage ASAP Nous recrutons pour un client majeur du secteur de la construction et des infrastructures , dans le cadre du renforcement de ses équipes data. Mission freelance de 12 mois minimum (renouvelable), démarrage ASAP 2 jours de télétravail flexible et Localisation Ligne 14 Profils juniors acceptés, 1 an d'expérience min. (stage, alternance, première expérience compris) Formation Bac +5 min. requise Contexte & mission Vous interviendrez sur des outils liés à la gestion de données internes, avec notamment : Analyse et traitement de logs Identification de dysfonctionnements Intégration et transformation de données Alimentation de tables BigQuery Support sur des outils internes (Dataiku, tableaux de suivi…)
Freelance

Mission freelance
AMOA Data Gouvernance

SMARTPOINT
Publiée le
KPI

1 an
Saint-Denis, Île-de-France
Mettre en place une organisation autour de la gestion de la donnée pour en garantir la qualité et sa bonne valorisation tout en suivant les règles de l’art en termes de data gouvernance (organisationnelle, technique, juridique etc) et d’application de la politique du Groupe sur ce périmètre. Le responsable doit comprendre les enjeux métier des données ainsi que les contraintes opérationnelles autour de ce domaine afin de déployer cette organisation chez DRC. Description détaillée des tâches qui constituent la mission: Le Responsable « Data Gouvernance » intervient plus spécifiquement sur trois missions principales : Définition d’une stratégie de gouvernance de la donnée: a. Réalisation d’un état des lieux b. Identification et catégorisation des différents périmètres de données à adresser c. Priorisation des actions à mener d. Définition d’une organisation et outils nécessaires à une gouvernance optimale des données e. Garantir la bonne sécurisation des données f. Garantir la bonne application de la politique Data SNCF pour DRC g. Garantir la conformité juridique de nos données Garantir la qualité des données: a. Mise en place de l’organisation, outils et KPI de suivi issus de la stratégie afin de garantir la qualité de la donnée b. Suivre opérationnellement les indicateurs de qualité de la donnée et mettre en place des actions de correction des données si besoin Valorisation de la donnée: a. Être le point d’entrée des métiers DRC (offres, exploitations, relations clients etc) pour répondre à des besoins via l’exploitations de la donnée b. Réalisation d ‘étude ad hoc en fonction des besoins métiers c. Etre force de proposition pour valoriser nos données via de nouvelles pratiques ou outils d. Préparer nos bases de données pour l’intégration de cas d’usage nécessitant des IA génératives
Freelance

Mission freelance
Ingénieur IVVQ Télécom & Réseau H/F

Be Resilient Group (BRG)
Publiée le
Réseaux
Telecom

9 mois
400-550 €
Versailles, Île-de-France
Be Resilient Group cherche un Ingénieur IVVQ Télécom/ Réseaux pour une mission belle freelance. Mission générale : Participer à la définition de la stratégie de tests et du plan de validation/intégration Développer des tests automatisés et des bouchons Automatiser les campagnes de tests Intégrer les composants sur plateforme cible Participer aux phases de recettes et qualifications avec nos partenaires et clients Dérouler les tests et les intégrer aux outils et processus CI/CD Identifier, formaliser et analyser les faits techniques Valider les corrections et réaliser les premières analyses d’anomalies Rédiger les documentations utilisateurs
Freelance

Mission freelance
Architecte SI / Delivery Data & IA Senior

Sapiens Group
Publiée le
Cloud
Enterprise Architect
ITIL

12 mois
750-800 €
Île-de-France, France
Missions principales : 1. Vision & architecture Garantir la cohérence globale entre stratégie métier, architectures SI, plateformes et solutions Data & IA (Clouds) et contraintes d’exploitation. Traduire les besoins métiers en solutions structurées. Piloter les trajectoires SI (Cloud, Data, API, microservices). 2. Exploitabilité & mise en service des projets stratégiques Assurer la fiabilité, la maîtrise et l’industrialisation des mises en production. Structurer et optimiser les processus ITIL : CMDB Service Now Release Management, Change Management Incident & Problem Management Définir et améliorer : Critères de Go Live Exigences d’exploitabilité dès la conception (Shift Left) Supervision, monitoring et gestion des alertes Structurer les environnements DEV / PREPROD / PROD. Documenter et organiser le RUN, sécuriser les Go Live et coordonner BUILD / RUN. Mettre en place les rituels d’exploitation et accompagner les équipes RUN. 3. Delivery Data / IA Définir un processus end-to-end pour le delivery des plateformes et solutions Data & IA. Suivre le backlog Data / IA et la gouvernance des usages. Définir les critères de priorisation (valeur, ROI, faisabilité). Mettre en place les standards : qualité des données, cycle de vie des modèles, monitoring. Accompagner l’industrialisation des premiers use cases et favoriser l’adoption rapide.
Freelance

Mission freelance
Chef de projet Data & Digital H/F

Karma Partners
Publiée le
AWS Cloud
Azure
CMS

6 mois
400-630 €
Île-de-France, France
Au sein de l’équipe On Site Services de la Digital Factory, le chef de projet Data/Digital porte la relation privilégiée entre les équipes digitales et data. Il assure et coordonne la mise en œuvre des projets digitaux dans le respect des bonnes pratiques d’une entreprise datacentrique (identification et rationalisation des sources, réflexion autour des Core Data Model, cohérence et monitoring des flux, contribution à la mise en qualité des données...) tout en veillant à intégrer les enjeux légaux et de sécurité. Il travaillera notamment les sujets de stratégie d’exposition des données, d’intégration des données dans les applications tierce et de Gouvernance Data / Digital. Projet et Solutioning · Prendre en charge et suivre les projets B2B d’exposition et consolidation des données clients en lien avec les consommations et parcours de leurs convives · Contribuer à l’alimentation des roadmaps éditeurs en charge de systèmes d’encaissement au travers des demandes issues des interlocuteurs métier (amont) et chefs de projet déploiement (aval). · Gérer les des activités de conception, d'évolution et de maintenance corrective des applications dont il a la charge, · Oeuvrer à l’amélioration continue du niveau d'industrialisation du déploiement des solutions et du niveau de supervision du parc. Se positionner en référent technico/fonctionnel des systèmes d'encaissement vis-à-vis de ses pairs (architecte, delivery lead, product owner) et garantir la bonne intégration des outils au sein du SI Comitologie · Porter et animer la gouvernance projet (copil et coproj) avec les éditeurs · Porter la relation avec les équipes connexes à la Digital Factory (notamment sécurité et data) et identifier / gérer les impacts dans le cadre des projets et du run · Porter la relation avec les équipes légales et achats pour poser les bases/faire évoluer les contrats éditeur · Identifier/mitiger ou escalader les risques inhérents aux projets
Freelance

Mission freelance
Data Engineer / DevOps Kafka Senior

Deodis
Publiée le
Kubernetes

1 an
500 €
Île-de-France, France
Rejoignez une équipe au cœur de la transformation technologique en tant que Data Engineer / DevOps Kafka Senior, où vous interviendrez sur la conception, l’exploitation et l’automatisation de plateformes Kafka industrielles déployées en environnements On-Premise et cloud. Vous serez impliqué dans l’administration avancée de clusters, le développement de solutions “Kafka as Code”, ainsi que dans la mise en place de pipelines CI/CD et d’outils d’automatisation (Python, Terraform, Ansible). Vous contribuerez également au maintien en conditions opérationnelles d’offres existantes, à leur évolution progressive, et participerez aux dispositifs de support et d’astreinte, tout en améliorant en continu la fiabilité, la supervision et l’industrialisation des systèmes dans des environnements conteneurisés (Docker, Kubernetes).
Freelance

Mission freelance
Data Scientist (H/F)

Nicholson SAS
Publiée le
Data analysis
Data science
Large Language Model (LLM)

8 mois
680 €
Île-de-France, France
Informations Pratiques Secteur : Télécommunications Localisation : Arcueil (94) – Rythme hybride (2 jours de présence sur site par semaine) Démarrage : Immédiat (ASAP) Durée : Jusqu’au 31/12/2026 (Visibilité long terme) TJM max : 680 € Contexte de la Mission Suite à la mise en production réussie d'une solution de relation client innovante basée sur l'intelligence artificielle ( Speech-to-Speech ), le groupe amorce une phase de déploiement et d'industrialisation sur l'ensemble de ses canaux digitaux. L'objectif est de renforcer les équipes Data pour accompagner cette montée en charge selon deux axes stratégiques : l'optimisation du monitoring et l'automatisation de la qualité. Vos Missions Rattaché(e) aux équipes Data Science, vous intervenez sur le cycle de vie de la solution dans une logique de passage à l'échelle : Optimisation du Monitoring : Perfectionner les outils de suivi et d'analyse de performance de la solution IA en production. Mise en place du Test Ops : Concevoir et déployer une " Test Case Factory " augmentée par l'IA. Automatisation : Utiliser la Data Science pour générer des scénarios de tests automatisés à chaque nouvelle version logicielle afin de garantir la robustesse du système. Industrialisation : Participer activement au "scaling" de la solution sur les différents points de contact digitaux du client. Compétences Techniques Cœur de métier : Data Science appliquée. Spécialités : Traitement du langage naturel (NLP), intégration de modèles de langage (LLM) et architectures agentiques. Méthodologie : Sensibilité aux problématiques de mise en production (MLOps / Test Ops). Soft Skills Capacité à travailler dans un environnement technologique de pointe. Rigueur méthodologique pour assurer la fiabilité des processus de tests. Force de proposition pour l'amélioration continue des outils de monitoring.
Freelance

Mission freelance
Data Analyst Monétique (F/H)

CELAD
Publiée le
Azure
Big Data
Cloud

12 mois
500-530 €
Paris, France
Data Analyst Monétique (F/H) Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data Analyst Monétique pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 🧭 Contexte de la mission Au sein de la Data Factory , la squad Data Monétique est composée d’environ 10 personnes et s’inscrit dans l’écosystème Data des moyens de paiement Cette équipe est en charge de : L’alimentation des équipes métiers et des autres squads data en données de paiements et données clients La production et diffusion de reportings et tableaux de bord power bi à destination des métiers et des établissements du groupe. L’alimentation de systèmes opérationnels et d’interfaces clients en données de paiements L’accompagnement des équipes métiers dans l’exploitation des données de paiement 🎯 Vos missions Dans ce contexte, vous interviendrez en tant que Data Analyst sur les activités suivantes : Participer à la collecte, la transformation et la gestion des données afin de garantir leur intégrité, qualité et sécurité Contribuer à l’animation de groupes de travail avec les sponsors, Business Analysts et membres de la squad (Data Engineers, Data Viz, BA…) Réaliser les recettes des traitements d’intégration et de transformation de données Rédiger et documenter les user stories, spécifications fonctionnelles et cahiers de recette en lien avec le Product Owner Accompagner et former les utilisateurs sur les usages des données et des outils de restitution
CDD
CDI
Freelance

Offre d'emploi
DATA OPS DATAIKU DSS

R&S TELECOM
Publiée le
AWS Cloud
Azure
CI/CD

6 mois
Bordeaux, Nouvelle-Aquitaine
Objectifs de la mission Industrialiser les projets de Machine Learning développés sous Dataiku DSS Mettre en place une chaîne MLOps robuste, sécurisée et maintenable Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku Assurer le bon passage du POC à la production, puis l’exploitation dans le temps Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data Périmètre d’intervention Projets Data Science & IA développés sous Dataiku DSS Chaînes MLOps (entraînement, déploiement, supervision des modèles) Connexion de Dataiku aux sources de données de l’entreprise Environnements DEV / TEST / PROD Livrables attendus Pipelines MLOps Dataiku industrialisés et documentés Modèles ML déployés et supervisés en production Connecteurs Dataiku vers les sources de données opérationnels Documentation d’exploitation MLOps & DataOps Recommandations de standardisation et d’amélioration continue Interactions Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation Compétences Dataiku DSS – niveau avancé (MLOps & DataOps) Expérience confirmée en industrialisation de modèles ML Python, SQL CI/CD, Git Très bonne compréhension des architectures Data Environnements Cloud (AWS / GCP / Azure) Sensibilité forte aux enjeux sécurité, RUN et exploitation
Freelance
CDI

Offre d'emploi
Data Engineer expérimenté – Plateforme Data (H/F)

Argain Consulting Innovation
Publiée le
Big Data
Data Warehouse
IBM DataStage

12 mois
40k-45k €
450-500 €
Nantes, Pays de la Loire
Contexte : Dans le cadre de l’évolution et de la modernisation d’une plateforme data stratégique, nous recherchons un Data Engineer expérimenté pour renforcer une équipe d’experts. Vous interviendrez dans un environnement agile et collaboratif, aux côtés d’ingénieurs data confirmés, avec un encadrement produit et méthodologique, favorisant l’excellence technique et l’innovation. Mission : La mission s’inscrit dans une dynamique ambitieuse autour de plusieurs axes : Build : Conception et développement de nouvelles solutions data Run : Maintien en conditions opérationnelles et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Modernisation : Évolution vers des architectures data modernes Responsabilités : Développer des traitements ELT (principalement à destination d’un datawarehouse) Concevoir et maintenir des templates ELT Participer à la définition de la feuille de route technique de migration ETL vers ELT Accompagner les équipes utilisatrices des solutions data Contribuer à la documentation des solutions du périmètre Garantir le bon fonctionnement du plan de production et le respect des engagements de service Identifier et proposer des optimisations dans une logique d’amélioration continue Partager ses connaissances et être force de proposition Attendus Développer des traitements ELT xDI principalement à destination du Datawarehouse Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Accompagner les développeurs Participer à la Documentation de l'ensemble des solutions Assurer le bon fonctionnement du plan de production et l'ensemble de nos produits et solutions en respectant les engagements de service Identifier / proposer des optimisations des traitements dans une démarche d'amélioration continue du plan de production Partager ses connaissances avec ses pairs et être force de proposition
CDI
Freelance

Offre d'emploi
Architecte d'Intégration

VISIAN
Publiée le
API
Architecture
Data management

1 an
Paris, France
Contexte La mission consiste à concevoir et implémenter l’architecture d’intégration globale pour assurer la connectivité de manière cohérente entre les différentes solutions de l’écosystème (ERP, CRM, Data platform...). Cela passe par la définition et mise en œuvre de standards d’échange et le pilotage de la stratégie de flux, tout en garantissant l’agilité de l’écosystème lors des déploiements internationaux et des migrations pays. Missions Définition de la stratégie d'intégration s'appuyant sur un principe de couplages faibles et contrats d'interface forts Choix et mise en place des briques d'intégration Orchestration des flux métier Observabilité des flux Standardisation des APIs si nécessaire Mise en place de pratiques et outils AI-Driven Integration (automatiser des mappings de données, détection d'erreurs de flux...) Supervision et support lors des intégrations et migrations pays
Freelance

Mission freelance
Directeur de Projet - Mainframe

CONCRETIO SERVICES
Publiée le
COBOL
Data management

12 mois
400-600 €
Gironde, France
Dans le cadre de la transformation de son système d'information, notre client — grand compte — recherche un Directeur de Projet expérimenté pour piloter en transverse le domaine Référentiel (Tiers, Contrats, Produits). Le prestataire intégrera la DSI et assurera un rôle stratégique à l'interface des équipes métiers, des architectes et des équipes de delivery, dans un contexte de modernisation d'un patrimoine applicatif legacy significatif. Missions principales Structurer et piloter les actions du schéma directeur du domaine Référentiel Sécuriser les décisions d' urbanisation autour des objets métiers clés (Tiers, Contrats, Produits) Piloter les études d'opportunité et de faisabilité en lien avec les enjeux de modernisation Piloter les contributions DSI aux études conduites par la MOA Expérimenter un POC IA appliqué à l'analyse d'impact et à la rétro-documentation (LLM, RAG, extraction de connaissance) Assurer le reporting et la gouvernance auprès des instances DSI et métiers Organiser et coordonner le projet de migration du patrimoine Référentiel Piloter le plan de gestion de la dette technique sur le périmètre des ID, en soutien des managers Environnement technique SI legacy : applications COBOL , CICS / DB2 / MQSeries SI distribués et architectures hybrides Enjeux MDM / Data Management Architecture d'entreprise et urbanisation du SI Expérimentation IA générative (LLM, RAG, knowledge extraction)
Freelance
CDI

Offre d'emploi
Data Steward

DATAMED RESEARCH
Publiée le
Collibra
Microsoft Power BI
MySQL

24 mois
45k-55k €
400-550 €
Paris, France
Contexte Intervention au sein d’une équipe Data/Gouvernance, avec des enjeux forts autour de la qualité de la donnée , de la conformité et de la fiabilisation des référentiels métiers . Missions principales Assurer la qualité, la cohérence et la fiabilité des données Mettre en place et suivre les règles de gestion et de contrôle de la donnée Définir et maintenir le data catalog et les référentiels métiers Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts…) Identifier et analyser les anomalies de données Mettre en place des indicateurs de qualité (KPI Data Quality) Participer aux initiatives de gouvernance des données (politiques, standards, process) Accompagner les métiers dans la bonne utilisation des données
Freelance
CDI

Offre d'emploi
Data Scientist / Python – IA & AIOps (H/F)

STORM GROUP
Publiée le
AI
Machine Learning
Python

3 ans
50k-55k €
500-520 €
Île-de-France, France
Contexte du poste : Nous recherchons un Data Scientist confirmé, expert en Python et en Data Learning, pour intervenir sur un projet d’évolution d’outils d’Event Management vers une plateforme intégrant des capacités avancées d’AIOps. L’objectif est de renforcer l’automatisation, la corrélation d’incidents et la prédiction au sein d’un environnement de supervision IT. Missions principales : - Participer à la migration d’un outil d’Event Management vers une solution intégrant des modules AIOps. - Analyser les événements et concevoir des modèles de corrélation permettant d’identifier, regrouper et prioriser les incidents. - Développer des modèles de Data Learning / Machine Learning pour améliorer la détection et la prédiction d’incidents. - Implémenter des scripts d’auto‑remédiation et des mécanismes intelligents de traitement d’alertes. - Créer, enrichir et intégrer des situations / patterns d’événements dans la plateforme AIOps. - Collaborer avec les équipes d’exploitation, d’architecture et de développement pour assurer une intégration fluide des modèles. - Contribuer à l’évolution continue des outils et pipelines IA/ML.
CDI
Freelance

Offre d'emploi
Data Ingénieur Python ELK

CHARLI GROUP
Publiée le
Elasticsearch
ELK
Python

3 ans
Paris, France
ngénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
5446 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous