Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 283 résultats.
Freelance

Mission freelance
Data Scientist / GenAI /LLM

Pickmeup
Publiée le
Machine Learning
Python
Pytorch

2 ans
650-750 €
France
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Freelance

Mission freelance
Data Analyst Power BI

Groupe Aptenia
Publiée le
Azure
Microsoft Power BI
Python

8 mois
400 €
Strasbourg, Grand Est
🔍 Nous recherchons un Data Analyst Power BI pour renforcer une équipe Data dans un contexte industriel international 🎯 Vos missions principales ✅ Concevoir et développer des dashboards Power BI pour les métiers (reporting, analyse) ✅ Interagir avec les équipes business pour comprendre et traduire les besoins ✅ Contribuer à la valorisation des données dans un environnement Azure / Databricks ✅ Collaborer avec les équipes Data Engineering en France et en Allemagne 🧩 Contexte Environnement industriel Interaction directe avec le siège en Allemagne Enjeux Data à l’échelle européenne et internationale Volonté de renforcer l’expertise Data côté France
Freelance

Mission freelance
Architecte Data Fonctionnel – Spécialiste Data Product

Ipanema Technology
Publiée le
Azure Data Factory

1 an
600-700 €
Île-de-France, France
Au sein d’une direction data en pleine transformation pour un acteur majeur du conseil et de l’audit, vous rejoignez une équipe stratégique dont l'objectif est de passer d'une gestion de la donnée "support" à une vision "Data as a Product" . En tant qu' Architecte Data Fonctionnel , vous êtes le chef d'orchestre de la valeur. Votre mission consiste à concevoir les fondations des premiers produits data de l'organisation. Vous ne vous contentez pas de dessiner des flux ; vous concevez des actifs de données réutilisables, fiables et à forte valeur ajoutée pour les métiers. Vos principales missions : Conception & Stratégie : Définir l'architecture fonctionnelle des Data Products (modélisation, lignage, interopérabilité) en cohérence avec la stratégie globale. Binôme Product : Travailler main dans la main avec les Product Owners (PO) et Product Managers (PM) pour traduire les besoins business en spécifications techniques actionnables. Gouvernance & Qualité : Garantir que chaque produit respecte les standards de qualité, de sécurité et de conformité, tout en facilitant son adoption par les utilisateurs finaux. Acculturation : Porter la vision "Data Product" auprès des équipes techniques et métiers pour favoriser une culture orientée résultat et efficacité.
Freelance
CDI

Offre d'emploi
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse

12 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
Freelance

Mission freelance
Data Engineer - ETL Specialist

Insitoo Freelances
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)

2 ans
400-685 €
Bruxelles, Bruxelles-Capitale, Belgique
Located in Lille, Lyon, Nantes, Grenoble, and Brussels, Insitoo Freelances is an entity of Insitoo Group, specialized in Freelances sourcing and supplying.Since 2007, Insitoo Freelances has been a reference in IT thanks to its expertise, transparency, and proximity . We are looking for a Data Engineer for our client in Brussels. Key responsibilities : Implementing new or modified functionality on the data platform and building data pipelines on this data platform Working with other data engineers, a functional analyst, solution architect, technical architect, and QA engineer. Together, they form an agile team. Relying on your technical knowledge and skills in Confluent Data Platform, Python, Airflow, NIFI, etc., to build functionality and data pipelines. Programming and delivering working code Consulting with colleagues Validating solutions and reviewing colleagues' code, following up on operational issues Writing documentation Evaluating and estimating user stories.
Freelance

Mission freelance
Data engineer Snowflake / DBT

PARTECK INGENIERIE
Publiée le
AWS Cloud
Cloud
DBT

12 mois
400-550 €
75000, Paris, Île-de-France
Data Engineer (H/F) – Environnement Data Platform / Big Data Mission : Au sein d’une équipe Data Platform, vous intervenez sur la conception, l’industrialisation et l’exploitation de solutions data à grande échelle, dans un contexte international. Responsabilités : Conception et développement de pipelines de données (collecte, transformation, valorisation) Analyse de données complexes en collaboration avec les équipes Data Maintenance et évolution d’une plateforme data de type Lakehouse Choix des technologies de stockage et de traitement adaptées Mise en place de bonnes pratiques (code, architecture, data) Veille technologique et amélioration continue des outils et pratiques Profil recherché : Minimum 5 ans d’expérience en Data Engineering / Big Data Solide culture technique et capacité à évoluer dans des environnements complexes Bonne compréhension des enjeux métiers et capacité à vulgariser Compétences techniques : Python, SQL Outils Big Data : DBT, ETL, solutions de stockage (S3, Snowflake, MongoDB ou équivalent) Environnement Cloud (AWS idéalement, Azure ou GCP) DevOps : Docker, CI/CD, environnement Unix Connaissance des architectures data et idéalement Infrastructure as Code Langues : Anglais professionnel requis
Freelance

Mission freelance
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES

WorldWide People
Publiée le
Semarchy

12 mois
360-390 €
Nantes, Pays de la Loire
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES 04/05/2026 1 an Nantes ( 2 jours de télétravail) Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell Build: conception et développement de nouvelles solutions socle data Run: MCO et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Développer des traitements ELT xDI Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Nous recherchons un data engineer confirmé. La maitrise de Semarchy xDi, SQL et GitLab CICD est nécessaire.
Freelance

Mission freelance
Data Engineer Senior / Lead Data

Tenth Revolution Group
Publiée le
AWS Cloud
Collibra
Databricks

6 mois
620-660 €
Paris, France
Dans le cadre d'une mission chez un grand acteur du secteur de l'énergie en France, nous recherchons des profils Data Engineer Senior++ / Lead Data disponibles entre mi-mars et mi-mai 2025. Le client, accompagné par un cabinet de conseil top tier, recherche des consultants capables de s'emparer d'un périmètre data, de le cadrer et de le développer en toute autonomie. Plusieurs positions sont à pourvoir. La maîtrise et l'usage quotidien de l'IA dans le travail est un critère indispensable.
CDD

Offre d'emploi
BI / IT Specialist (H/F) - 94

MP Advertising
Publiée le
BI
Data modelling
ERP

6 mois
50k €
Val-de-Marne, France
Nous recherchons un BI / IT Specialist pour gérer et faire évoluer le système d’agrégation des factures du système à l’échelle EMEA. Ce poste se situe à l’interface entre la Business Intelligence, l’IT et la Finance, avec pour objectif de garantir la fiabilité des traitements de données, la cohérence des mappings et une intégration fluide avec les systèmes locaux et le système central du Groupe. Le candidat jouera un rôle clé dans la maintenance du système, la qualité des données et la coordination des développements techniques. Gestion du système & traitement des données Superviser les flux de données et garantir leur qualité entre les systèmes locaux et le système Groupe ; Accompagner l’intégration de nouveaux ERP / entités dans Eden. Mapping & gestion des données de référence (Master Data) Maintenir la logique de mapping (produits, clients, données financières) et assurer l’alignement avec les systèmes MES et MDM ; Gérer la création et le cycle de vie des codes produits (création, mise à jour, retrait). Clôture mensuelle & validation des données Piloter le processus de clôture mensuelle dans le système Eden : de l’intégration des factures jusqu’au traitement et à la transmission vers le MES du montant correct du chiffre d’affaires net EMEA ; Coordonner les activités de clôture mensuelle en assurant la cohérence avec le reporting financier ; Investiguer et résoudre les anomalies de données (factures manquantes ou incorrectes, incohérences de référentiel, problèmes de paramétrage produit) ; Valider les données dans les rapports définis par le management, notamment ceux de la Finance ainsi que d’autres départements (ex : reportings Marketing type MBR, planification financière (DOP), etc.) ; Collaborer avec les équipes support IT pour identifier les problèmes et proposer des solutions ; Valider les améliorations livrées dans son périmètre (validation finale sous la responsabilité du Head of Finance BI). Coordination de projets & collaboration IT Proposer de manière proactive des pistes d’amélioration et d’évolution des outils et reportings existants ; Faire le lien entre les équipes métiers et IT pour les évolutions et nouveaux développements ; Coordonner les projets, réaliser les tests (UAT) et valider les livrables ainsi que la documentation IT.
Freelance

Mission freelance
Tech Lead Data

Nicholson SAS
Publiée le
Azure
Databricks
Python

9 mois
520 €
Issy-les-Moulineaux, Île-de-France
Bonjour, Un grand groupe de logistique international recherche son premier Tech Lead Data afin d’accompagner ses équipes dans la montée en compétences sur Databricks . Dans ce cadre, l’ensemble des environnements data est en cours de migration vers Databricks, marquant une transition d’un modèle historiquement orienté paramétrage (SAP BW) vers une approche moderne centrée sur le développement data . L’enjeu principal de ce rôle est d’accompagner les équipes dans la conception et le développement des premiers cas d’usage sur Databricks, tout en facilitant leur adoption de cette nouvelle plateforme. Au-delà de la dimension technique, un fort leadership est attendu pour structurer les pratiques, fédérer les équipes et les accompagner dans cette transformation stratégique. Nous recherchons par consequent un Tech Lead Data pour accompagner une transformation stratégique des environnements data vers Databricks . 📍 Localisation : Issy-les-Moulineaux (3 jours/semaine sur site) 💰 TJM max : 520 € 📅 Démarrage : ASAP 📆 Fin de mission : 31/12/2026 🚀 Contexte & Enjeux Dans le cadre d’une transformation majeure des plateformes data, les équipes passent d’un environnement orienté SAP BW (paramétrage) à un modèle centré sur le développement avec Databricks . L’objectif de cette mission est d’accompagner cette transition en structurant les pratiques et en accélérant la mise en œuvre des premiers cas d’usage data. 🎯 Missions En tant que Tech Lead Data , vous interviendrez à la fois sur les volets techniques et organisationnels : Accompagner les équipes dans la prise en main de Databricks Développer et encadrer les premiers cas d’usage data Structurer les bonnes pratiques de développement et d’architecture data Participer aux choix techniques et à l’évolution de la plateforme Encadrer, faire monter en compétences et fédérer les équipes data Apporter une vision et un leadership pour tirer les équipes vers le haut 🛠️ Environnement technique Azure Databricks Databricks Data Intelligence Platform SAP BW Python SQL 👤 Profil recherché Tech Lead Data / Data Engineer senior Expérience : 7 ans minimum Solide expertise sur Databricks et les architectures data modernes Expérience dans des environnements legacy type SAP BW appréciée Capacité à accompagner une transformation technique et culturelle 🤝 Soft skills Leadership naturel et capacité à fédérer Excellente communication avec des interlocuteurs techniques et métiers Esprit structurant et orienté solutions Pédagogie et accompagnement des équipes 💡 Mission à fort impact avec une dimension stratégique et un rôle clé dans la transformation data.
Freelance

Mission freelance
Data scientist IA Générative

MLMCONSEIL
Publiée le
IA Générative
Python

1 an
100-480 €
Paris, France
Recherche d’un Data Scientist senior (5 à 10 ans d’expérience) avec une expertise confirmée en IA générative, notamment sur des cas d’usage basés sur RAG. Le profil devra maîtriser Python ainsi que les outils de l’écosystème GenAI tels que LangChain, Hugging Face et les bases vectorielles. . . . . . . . .. . . . . . . . .. . . . . .
Freelance

Mission freelance
PMO Data

Codezys
Publiée le
Animation
Data management
Gouvernance

12 mois
330-430 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre de ses programmes de transformation stratégique, notre organisation souhaite renforcer la mise en œuvre de ses initiatives « data ». À cet effet, nous recherchons un PMO expérimenté afin d’assurer l’animation opérationnelle des équipes plateformes. La mission consiste à coordonner et suivre l’ensemble des travaux liés à la mise en œuvre des attendus « data », en veillant à la conformité avec les enjeux de gouvernance et d’architecture data. Le candidat idéal devra posséder une solide expertise en architecture data et gouvernance , afin d’accompagner efficacement les équipes dans la réalisation des objectifs stratégiques. Type de mission : Temps plein Démarrage : Dès que possible Objectifs et livrables Management de la backlog d'évolution : Assurer la priorisation, la gestion et la coordination des évolutions nécessaires pour la plateforme data en alignement avec les objectifs du programme. Animation des rituels de suivi par plateforme : Organiser et animer les réunions régulières afin de faire le point sur l’avancement, identifier les risques et coordonner les actions correctives. Reporting au directeur de programme : Élaborer des rapports synthétiques et précis pour suivre l’état d’avancement, les enjeux et les résultats des travaux en cours auprès de la direction.
CDI

Offre d'emploi
Data Scientist (H/F)

█ █ █ █ █ █ █
Publiée le
Deep Learning
Numpy
Python

40k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
📩 Data Scientist Confirmé – Computer Vision

Gentis Recruitment SAS
Publiée le
CI/CD
Computer vision
Docker

6 mois
40k-45k €
400-600 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une première version (V0) d’une solution de détection pour des applications dans le secteur naval, notre client, acteur industriel majeur dans le domaine de la défense et des technologies, recherche un Data Scientist Senior spécialisé en Computer Vision . Le projet porte sur l’analyse d’images et de flux vidéo avec des enjeux forts de précision, de robustesse et de mise en production rapide. Missions Participer au cadrage fonctionnel et technique avec les équipes métiers Concevoir et développer des modèles de Computer Vision (détection, reconnaissance, identification) Développer, entraîner et valider des modèles Machine Learning / Deep Learning Assurer le déploiement et le cycle de vie des modèles (MLOps) Contribuer activement à la livraison d’une V0 dans un environnement en sprint court Animer des workshops techniques avec les équipes projet (PO, DevOps, Architectes, Développeurs) Garantir la qualité, la performance et la maintenabilité des solutions développées
Freelance

Mission freelance
Data Engineer GCP

Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD

18 mois
450 €
Saint-Ouen-sur-Seine, Île-de-France
Bonjour, Dans le cadre d’un projet stratégique pour notre client, nous recherchons un Data Engineer GCP sénior pour rejoindre les équipes DST DataLab . Contexte de la mission: Vous interviendrez au sein d’une équipe data engagée dans la construction et l’optimisation de chaînes de traitement et d’intégration de données sur l’environnement Google Cloud Platform . La mission s’inscrit dans un contexte de structuration et de fiabilisation des flux de données , avec un fort enjeu autour de la qualité, de la performance et de la gouvernance. Informations pratiques: Localisation : Saint-Ouen-sur-Seine Présence sur site : 2 à 3 jours par semaine (obligatoire) Démarrage : 20 avril 2026 Fin de mission : 31 décembre 2027 TJM maximum : 450 € Missions: Concevoir et développer des pipelines de traitement de données sur GCP Mettre en place et maintenir des chaînes d’intégration et de transformation de données Travailler sur l’optimisation et la structuration des bases de données analytiques Participer aux choix d’architecture et aux bonnes pratiques de développement Garantir la qualité, la performance et la fiabilité des flux de données Collaborer étroitement avec les équipes data, architecture et métiers Stack technique: Compétences requises GCP Dataform (prioritaire) ou DBT BigQuery SQL (maîtrise avancée) Python Apache Airflow CI/CD Google Cloud SQL Google Cloud Run Compétences appréciées: Architecture applicative Expérience autour des APIs, IHM et exposition de données Expérience avec Cloud Run / Cloud SQL ou Kubernetes (JKS) Profil recherché: Data Engineer avec 5 ans d’expérience minimum Solide expérience sur les environnements data cloud Capacité à travailler dans un cadre structuré avec des méthodes de développement rigoureuses Excellentes soft skills : communication, autonomie, esprit d’équipe et sens de l’organisation
Freelance

Mission freelance
Data Scientist / AI Engineer

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
3283 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous