Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 770 résultats.
Freelance

Mission freelance
Data Scientist (H/F)

Nicholson SAS
Publiée le
Data analysis
Data science
Large Language Model (LLM)

8 mois
680 €
Île-de-France, France
Informations Pratiques Secteur : Télécommunications Localisation : Arcueil (94) – Rythme hybride (2 jours de présence sur site par semaine) Démarrage : Immédiat (ASAP) Durée : Jusqu’au 31/12/2026 (Visibilité long terme) TJM max : 680 € Contexte de la Mission Suite à la mise en production réussie d'une solution de relation client innovante basée sur l'intelligence artificielle ( Speech-to-Speech ), le groupe amorce une phase de déploiement et d'industrialisation sur l'ensemble de ses canaux digitaux. L'objectif est de renforcer les équipes Data pour accompagner cette montée en charge selon deux axes stratégiques : l'optimisation du monitoring et l'automatisation de la qualité. Vos Missions Rattaché(e) aux équipes Data Science, vous intervenez sur le cycle de vie de la solution dans une logique de passage à l'échelle : Optimisation du Monitoring : Perfectionner les outils de suivi et d'analyse de performance de la solution IA en production. Mise en place du Test Ops : Concevoir et déployer une " Test Case Factory " augmentée par l'IA. Automatisation : Utiliser la Data Science pour générer des scénarios de tests automatisés à chaque nouvelle version logicielle afin de garantir la robustesse du système. Industrialisation : Participer activement au "scaling" de la solution sur les différents points de contact digitaux du client. Compétences Techniques Cœur de métier : Data Science appliquée. Spécialités : Traitement du langage naturel (NLP), intégration de modèles de langage (LLM) et architectures agentiques. Méthodologie : Sensibilité aux problématiques de mise en production (MLOps / Test Ops). Soft Skills Capacité à travailler dans un environnement technologique de pointe. Rigueur méthodologique pour assurer la fiabilité des processus de tests. Force de proposition pour l'amélioration continue des outils de monitoring.
Freelance

Mission freelance
Data Engineer / Développeur Talend

ARGANA CONSULTING CORP LLP
Publiée le
Data governance
Data Lake
Data modelling

12 mois
400-460 €
Paris, France
Nous recherchons un Développeur Talend confirmé / Data Engineer pour renforcer une équipe existante, en appui direct au Tech Lead, afin d’augmenter la capacité de delivery sur les projets data. 🧠 Compétences requises 🔴 Compétences impératives Talend (ETL) : niveau confirmé (3 à 6 ans) Développement de pipelines d’intégration de données Maintenance et évolution de flux existants (MCO) 🟠 Compétences importantes Data engineering (modélisation, qualité de données) Intégration de données multi-sources Compréhension des architectures data (Data Lake, ETL) 🟡 Compétences appréciées Gouvernance data / bonnes pratiques Sécurité des données Outils de versioning et CI/CD Documentation technique 🎓 Formation & expérience Bac +2 à Bac +5 (informatique / data) Expérience : 3 à 6 ans minimum Expérience significative sur Talend obligatoire 📋 Fiche de poste – Missions 🎯 Objectif principal Renforcer l’équipe data pour : Développer de nouveaux pipelines d’intégration Assurer la maintenance des flux existants Garantir la qualité, la sécurité et la performance des données 🔧 Missions principales 🏗️ Développement & intégration Concevoir et développer des flux Talend Réaliser : Modélisation Paramétrage Développement Tests Implémenter de nouveaux pipelines data 🔄 Maintenance & exploitation (MCO) Assurer le maintien en condition opérationnelle des pipelines Corriger les anomalies et optimiser les performances Superviser les traitements de données 🧩 Data engineering Structurer et organiser les données (formats, modèles) Garantir la qualité des données (nettoyage, validation) Participer à l’alimentation du Data Lake 🛠️ Gouvernance & bonnes pratiques Appliquer les normes et standards de développement Contribuer à : L’architecture data Les bonnes pratiques de développement La gestion de configuration Documenter les développements 🤝 Support & collaboration Accompagner les équipes projet (SI, data, métiers) Travailler en collaboration avec le Tech Lead Participer à la montée en compétence de l’équipe 🔐 Sécurité & conformité Garantir la sécurité des flux de données Respecter les règles de gouvernance data 📦 Livrables attendus Développements Talend (jobs, pipelines) Documentation technique Dossiers d’architecture data Cartographie des flux et données Indicateurs de qualité des données
Freelance
CDI

Offre d'emploi
🚀 Opportunité – Expert Infrastructure / Data / Middleware (Migration Big Data)

OMICRONE
Publiée le
Ansible
CFT (Cross File Transfer)
IBM DataStage

3 ans
40k-45k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet stratégique de migration d’une plateforme Big Data vers une architecture classique , nous recherchons un expert technique senior capable de piloter et réaliser une migration from scratch. 📍 Localisation : Île-de-France 📅 Démarrage : ASAP 🎯 Vos missions : • Concevoir et mettre en place une nouvelle plateforme data (from scratch) • Installer, configurer et administrer les infrastructures (serveurs, bases de données, middlewares) • Mettre en place une architecture haute disponibilité (actif/passif, actif/actif) • Installer et configurer ETL DataStage et ses composants • Gérer les middlewares (MQSeries, CFT, Autosys…) • Assurer le monitoring (Dynatrace, Elastic, BAM…) • Automatiser les déploiements (Ansible, Jenkins, Git) • Mettre en place les standards sécurité (certificats, chiffrement des flux, conformité) • Documenter, former et accompagner les équipes support (N2/N3) • Participer au support de production et à l’amélioration continue 🛠 Environnement technique : • ETL : DataStage / DataStage TX • Middleware : MQSeries, CFT, Autosys • Infra : Linux, Windows, Kubernetes • Bases de données : Oracle / Exadata • Monitoring : Dynatrace, ElasticSearch • DevOps : Ansible, Jenkins, Git • Réseau & sécurité : Load balancer, DNS, WAF, certificats ✅ Profil recherché : • Expert technique confirmé en infrastructure/data/middleware • Expérience en migration de plateformes complexes • Maîtrise des architectures haute disponibilité • Forte autonomie et capacité à intervenir de bout en bout • Bonne compréhension des enjeux sécurité et performance • Capacité à interagir avec des équipes techniques et métiers
CDI

Offre d'emploi
Senior Data Scientist / ML Engineer (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
Elasticsearch
Git

53k-59k €
Rennes, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
DevOps / ETL Data Engineer - Banque

STHREE SAS
Publiée le

6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site par semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Contexte de la mission Vous rejoignez une équipe Agile intervenant sur des projets data structurants , dans un environnement international et fortement réglementé. La mission porte principalement sur la conception, le développement et la maintenance de flux de données critiques. 🚀 Vos missions Au quotidien, vous serez amené(e) à : Réaliser des analyses fonctionnelles et techniques Concevoir et développer des traitements ETL (principalement orientés intégration) Modéliser et enrichir des bases de données Développer des scripts SQL et Shell Paramétrer les outils ETL et garantir leur bonne exécution Produire l'ensemble des livrables : code, scripts, documentation, jeux de tests Effectuer les tests et contrôles (logique maker / checker) Participer aux mises en production et au support des équipes opérationnelles Collaborer avec les équipesIT et métiers dans un cadre Agile : backlog grooming, user stories, critères d'acceptation, démos de fin de sprint Contribuer à la qualité, la performance, la sécurité et la conformité des solutions livrées Être force de proposition dans une logique d' amélioration continue ✅ Profil recherché Profil confirmé avec environ 4 à 6 ans d'expérience en environnement Data / ETL Maîtrise impérative de : ETL (Datastage ou équivalent) SQL Shell scripting Habitué(e) aux méthodes Agile À l'aise dans des environnements structurés et exigeants Capacité à travailler en équipe, sens des responsabilités, rigueur Anglais professionnel requis Une expérience en environnement bancaire ou réglementé est appréciée mais non obligatoire
Freelance

Mission freelance
Senior Data Engineer

Signe +
Publiée le
DBT

12 mois
400-580 €
Vélizy-Villacoublay, Île-de-France
🎯 MISSIONS Concevoir et déployer des pipelines ETL/ELT performants (complets, incrémentaux, historiques) Construire et maintenir des Data Warehouses, Data Marts et cubes décisionnels Intégrer des données via API, transferts de fichiers, Data Lakes Optimiser les performances SQL et gérer les incidents en production Contribuer aux phases de cadrage / data discovery avec les parties prenantes Appliquer les bonnes pratiques dev, tests et déploiement en Agile Livrables attendus : Composants data développés et déployés (code source) Documentation technique et fonctionnelle Modèles de données documentés Rapports de tests/recette + transfert de connaissances 🛠️ ENVIRONNEMENT TECHNIQUE Obligatoire : SQL Server (Database Engine, SSIS, SSAS) Power BI / Reporting Services SQL avancé, DAX, MDX Talend et/ou SSIS (ADF apprécié) CI/CD : Azure DevOps, GitLab Architecture : Data Warehouse, Data Lake, Médaillon Apprécié : DBT, Trino, MinIO GCP (BigQuery, GCS, Dataproc) 👤 PROFIL RECHERCHÉ Senior Data Engineer avec expertise confirmée Microsoft SQL Server Expérience solide en ETL industrialisé (Talend / SSIS) Bonne maîtrise des architectures data modernes Anglais courant indispensable Méthode Agile maîtrisée
Freelance

Mission freelance
Data Product Owner (h/f)

emagine Consulting SARL
Publiée le

1 mois
111 €
92000, Nanterre, Île-de-France
emagine recherche pour un de ses clients un Data Product Owner . Vos missions : Contribuer à la définition de la vision produit Décliner cette vision en roadmap priorisée et alignée avec les enjeux business. Pilotage de la performance produit. Gestion des stakeholders. Amélioration continue et cadre Data. Participer aux rituels agiles (refinement, sprint planning, review, rétro). Favoriser une culture produit orientée valeur et impact. Votre profil: Expérience confirmée (minimum 5 ans) en tant que Product Owner. Anglais courant Connaissance de Tableau software. Environnement data, BI ou intelligence artificielle, idéalement en contexte agile. Bonne compréhension des enjeux data en environnement complexe : modélisation, qualité des données (accuracy, completeness, etc.), usages et valorisation. Maîtrise des méthodologies agiles, notamment SCRUM. Certification de Product Owner Détails supplémentaires: Ce poste offre l'opportunité de travailler dans un environnement dynamique, orienté données, convenant aux candidats passionnés par la gestion de produit en contexte agile.
CDI

Offre d'emploi
PRODUCT OWNER / SCRUM MASTER DATA CONFIRME H/F

Savane Consulting
Publiée le

55k-70k €
Paris, France
Contexte du poste : Nous recherchons un Product Owner / Scrum Master afin d’intégrer la DSI de notre client, un acteur majeur du transport public et de la mobilité urbaine. Au sein de la Fabrique Digitale, et plus particulièrement de l’unité Data, vous interviendrez sur une plateforme d’échange permettant de standardiser les flux de données entre les différents systèmes de l’entreprise. Vous évoluerez dans un environnement multi-équipes et multi-projets, en forte interaction avec les équipes métiers, data et techniques, afin d’assurer la cohérence et la performance des solutions mises en place. Missions principales : Assurer le rôle de Product Owner (gestion et priorisation du backlog, rédaction des user stories et critères d’acceptation) Animer les rituels Agile en tant que Scrum Master (daily, sprint planning, rétrospectives) Piloter plusieurs équipes en parallèle et assurer la coordination transverse Recueillir, analyser et formaliser les besoins métiers Arbitrer entre valeur métier, faisabilité technique et charge Suivre l’avancement des projets, les risques et la qualité des livrables Accompagner les projets dans l’intégration avec la plateforme d’échange Contribuer au maintien en conditions opérationnelles des applications (RUN)
Freelance

Mission freelance
Tech Lead Data – Snowflake et Modern Data Stack (H/F)

Lùkla
Publiée le
Snowflake

1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement de sa plateforme data, nous recherchons un Tech Lead Data pour piloter la conception et l’évolution d’une Modern Data Stack performante et scalable. Vos missions Définir et piloter l’architecture data basée sur Snowflake Mettre en place les standards de modélisation, gouvernance et sécurité Structurer les pipelines d’ingestion et de transformation (dbt, Fivetran) Déployer les bonnes pratiques d’industrialisation (CI/CD, tests, qualité) Optimiser la performance et les coûts de la plateforme (FinOps) Encadrer techniquement les équipes data et accompagner leur montée en compétence Contribuer à la roadmap data et aux sujets d’innovation (IA notamment) Environnement technique Snowflake dbt Fivetran Power BI Azure DevOps
Freelance

Mission freelance
Data Analyst Workplace

Ness Technologies
Publiée le
Cisco
ITSM
Microsoft Power BI

6 mois
Essonne, France
Rôle Dans le cadre d’une transformation IT orientée performance et amélioration continue, vous intervenez au sein d’un dispositif dédié à l’optimisation des services Workplace. Votre mission consiste à analyser, piloter et améliorer la performance des environnements utilisateurs (poste de travail, collaboration, mobilité), en vous appuyant sur la donnée et des indicateurs mesurables. 🚀 Missions Analyse & Data Exploiter les données issues des outils de supervision, ITSM et satisfaction utilisateur Construire des tableaux de bord et indicateurs de performance (Power BI ou équivalent) Identifier les tendances, irritants et axes d’amélioration Produire des analyses et recommandations basées sur la donnée Amélioration continue Identifier, prioriser et piloter des chantiers d’optimisation Contribuer à la réduction de la dette technique et de l’obsolescence Participer à des initiatives d’innovation sur le Workplace Mettre en œuvre des actions concrètes avec suivi des gains Pilotage & reporting Préparer des synthèses et restitutions pour le management Participer aux comités de pilotage et de suivi Suivre les KPIs, mesurer l’avancement et ajuster les priorités Valoriser les résultats et gains obtenus Collaboration & transverse Travailler en interaction avec les équipes IT (Workplace, infra, support) Collaborer avec les parties prenantes métiers S’adapter aux évolutions du périmètre et des priorités Être force de proposition sur les axes d’amélioration
Alternance

Offre d'alternance
Data Scientist Apprentice

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Numpy
Python

Champvoisy, Grand Est

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Engineer

TEOLIA CONSULTING
Publiée le
Google Cloud Platform (GCP)
PL/SQL

12 mois
45k-50k €
400-430 €
Lille, Hauts-de-France
Dans le cadre de sa transformation digitale, notre client, grand acteur du retail, cherche à renforcer son équipe produit Data pour faire évoluer une plateforme stratégique de gestion et d’optimisation des approvisionnements. Cette plateforme traite des volumétries importantes de données et joue un rôle clé dans la prise de décision métier . 🎯 Vos missions Intégré(e) à une équipe produit agile, vous intervenez sur : 🔧 Data Engineering (GCP) Conception et développement de pipelines ETL/ELT Traitement et intégration de données (APIs, fichiers, bases) Optimisation des performances sur BigQuery Orchestration des flux (Airflow / Composer) 🛠️ Run & support Analyse et résolution d’incidents (N2/N3) Écriture de scripts Bash pour automatisation Requêtes SQL complexes pour diagnostic et exploitation 📊 Data & monitoring Garantie de la qualité et cohérence des données Mise en place de monitoring et alerting (Grafana, outils GCP) Création de dashboards de suivi ☁️ Infrastructure & industrialisation Participation à l’IaC (Terraform) Contribution à la CI/CD (GitLab CI) Amélioration continue des pipelines et process 🧰 Environnement technique Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer) Data : SQL avancé, ETL/ELT Scripting : Bash CI/CD & IaC : GitLab CI, Terraform Monitoring : Grafana, outils GCP Bases de données : BigQuery, Oracle OS : Linux
Freelance
CDI

Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance

Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud

12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
CDI

Offre d'emploi
Data engineer informatica expérimenté H/F

TOHTEM IT
Publiée le

40k-45k €
Toulouse, Occitanie
Pour un client, nous recherchons un·e Data Engineer Informatica expérimenté·e . Tu interviens sur un environnement data structurant avec un objectif clair : challenger les modèles de données et les flux existants, les optimiser et les rendre plus robustes . Le contexte technique évolue vers Informatica Cloud : tu seras donc amené·e, au fil des sujets, à manipuler de plus en plus IICS en complément de PowerCenter. Tes missions Analyser et challenger les modèles de données Revoir les flux ETL Informatica pour : améliorer les performances simplifier les traitements renforcer la qualité des données Concevoir des solutions pérennes et industrialisées Intervenir sur des problématiques complexes de production Travailler avec les équipes métier, architecture et data Être force de proposition sur les choix techniques ➡ Dans le cadre de la mission, tu toucheras progressivement à : Informatica Cloud (IICS) nouveaux patterns d’intégration architectures data plus modernes
CDI

Offre d'emploi
Data Scientist F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Python
SQL

Saint-Denis, La Réunion

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Analyst (Diversification) F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
SQL

Charenton-le-Pont, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

770 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous