Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 82 résultats.
Freelance

Mission freelance
Senior Machine Learning Engineer(Computer Vision/ LLMs)

Cherry Pick
Publiée le
AI
AWS Cloud
Azure

1 an
510-570 €
Paris, France

Au sein de l’équipe Digital Data , vous contribuerez en mettant la donnée et l’IA au service de la performance opérationnelle et de l’expérience client. Localisation : Lille ou Paris (hybride possible) Langue : Anglais requis (communication quotidienne dans un contexte international) Démarrage : dès que possible Type de mission : longue durée / temps plein Vos missions En tant que Senior Machine Learning Engineer , vous serez en première ligne pour concevoir, construire et déployer des produits IA de nouvelle génération pour les magasins Decathlon à l’échelle mondiale. Vous interviendrez notamment sur des problématiques de vision par ordinateur, LLMs, prévisions et détection d’anomalies . Responsabilités principales : Concevoir, développer et déployer des modèles ML de bout en bout (MVP et production). Piloter des projets en Computer Vision, LLM, séries temporelles, détection d’anomalies . Collaborer avec les Product Managers, ingénieurs et experts métier pour transformer les besoins en solutions IA robustes et scalables. Travailler sur des jeux de données massifs , en garantissant la qualité, le prétraitement et le feature engineering. Optimiser la performance des modèles et les déployer en production selon les bonnes pratiques MLOps . Explorer et tester de nouveaux algorithmes et outils du monde IA/ML. Encadrer et accompagner des profils plus juniors (Data Scientists / AI Engineers).

Freelance
CDI

Offre d'emploi
Data Analyst orienté Data Engineering (F/H)

HOXTON PARTNERS
Publiée le
Azure
Python
Snowflake

6 mois
50k-60k €
400-480 €
Île-de-France, France

Nous recherchons un(e) Data Analyst orienté Data Engineering pour accompagner la transformation data-driven du groupe. Intégré(e) à une équipe transverse dynamique, vous interviendrez sur l’ensemble de la chaîne de valeur data : gouvernance, analyse, data engineering, data science et dataviz. En rejoignant cet environnement stimulant et bienveillant, vous aurez l’opportunité de valoriser des données clients, produits et opérationnelles à travers des projets stratégiques, des modèles prédictifs et des outils innovants. Missions Construire et automatiser des pipelines ELT fiables (Azure, Snowflake, Python, SQL). Mettre en place des datasets certifiés pour la BI & Data Science. Développer et maintenir des dashboards (Tableau, MicroStrategy). Analyser des jeux de données variés pour générer des insights stratégiques. Participer à la mise en place de modèles prédictifs (scoring, segmentation, ML). Contribuer à la diffusion des bonnes pratiques data au sein du groupe.

Freelance
CDD

Offre d'emploi
Data Scientist

Ailancy Technology
Publiée le
CI/CD
Databricks
Deep Learning

1 an
40k-45k €
400-550 €
Paris, France

Contexte de la mission Projets innovants depuis la R&D jusqu’au packaging pour industrialisation de modèles de ML appliquées aux problématiques de maîtrise de la charge de sinistres, de lutte anti-fraude et de maîtrise des risques climatiques. Un environnement de travail dans le DataLab Groupe sous Databricks et données puisées dans le DataLake Groupe et mises à disposition dans le DataLab. Objectifs et livrables Objet de la mission Le portefeuille projets de l’équipe est constitué de plusieurs projets de Data Science sur les sujets suivants : - Lutte contre la fraude - Analyse et réaction post-event sinistres, en particulier sur les périls climatiques - Prévention des sinistres graves Le consultant sera responsable de la cohérence technique des développements sur les projets de Data Science de l'équipe, du cadrage au déploiement en production. Principaux volets de la mission : - Superviser techniquement les travaux des Data Scientist junior et stagiaires de l'équipe (cadrage technique, challenge et optimisation du code, méthodologie modélisation) - Être le référent technique de l'équipe concernant les travaux d'industrialisation des modèles effectués par l'IT de L'organisation, en challengeant notamment leurs approches - Contribuer ponctuellement sur quelques projets de Data Science - Rédiger et/ou superviser la documentation en conformité avec les normes et standards de l'équipe - Proposer des nouveaux outils, méthodes pour faire monter en compétence l'équipe - Apporter un œil nouveau dans l'amélioration continue des modèles développés par l'équipe (utilisation de données non structurées, données externes…) En fonction des projets, les travaux vont du cadrage des sujets, préparation des bases de données, engineering des features, écritures et tuning des modèles de ML, préparation à l’industrialisation sous forme de projets.

Freelance

Mission freelance
DevOps - Python

KUBE Partners S.L. / Pixie Services
Publiée le
Azure DevOps
Python

1 an
400-500 €
Alpes-Maritimes, France

Intégration d'une équipe Agile Scrum en charge de la conception, du développement et de la maintenance d'une plateforme de big data. Cette plateforme s'appuie sur des technologies de pointe et des services managés Azure, en suivant une architecture de type Data Mesh. Son objectif principal est de fournir aux équipes et utilisateurs des fonctionnalités essentielles pour faciliter et industrialiser les projets de data science, notamment : ▪ Des données anonymisées prêtes à l'emploi. ▪ Des capacités de requêtes. ▪ Des environnements de data science. ▪ La gestion de modèles. ▪ Des boucles de rétroaction vers les systèmes opérationnels. Cette plateforme héberge également toutes les charges de travail analytiques, en mode batch ou streaming, en prenant en charge de nouveaux cas d'usage ou en permettant la migration des applications des centres de données privés vers Azure.

Freelance

Mission freelance
[TPR] Data Scientist / Data Engineer - EXPERT Minimum 10 XP - 941

ISUPPLIER
Publiée le

10 mois
580-635 €
Paris, France

Contexte et objectifs de la mission : Le client recherche un Data Scientist / Data Engineer confirmé disposant d’une expérience éprouvée en Data Science, en Large Language Models (LLMs) et dans l’utilisation avancée de LangChain et LangGraph. Le candidat participera à la conception, l’optimisation et l’industrialisation de solutions d’intelligence artificielle sur une stack Azure Fabric, Docker et App Container Services, incluant des modèles multimodaux et de Computer vision. Missions : • Concevoir, entraîner et déployer des modèles prédictifs et explicatifs (Machine Learning, Deep Learning). • Développer et maintenir des pipelines de données performants sur Azure Fabric. • Conteneuriser et orchestrer les modèles via Docker et App Container Services. • Implémenter et automatiser des workflows complexes via n8n. • Intégrer et exploiter des LLMs (fine-tuning, RAG, GraphRAG) dans des environnements de production. • Développer des solutions avancées à l’aide de LangChain et LangGraph pour la création d’agents intelligents et d’applications IA. • Mettre en œuvre des modèles multimodaux (texte, image, audio, vidéo) et de computer vision. • Concevoir des interfaces de visualisation et d’interaction via Streamlit. • Exploiter des LLMs Azure OpenAI et des modèles open source (Mistral, Llama, etc.) via Hugging Face. • Garantir la qualité, la robustesse et la documentation du code et des modèles. Compétences essentielles et expérience • Automatisation & Orchestration : n8n • LLMs & IA Générative : fine-tuning, RAG, GraphRAG, LangChain, LangGraph, modèles multimodaux, Azure OpenAI, Hugging Face, LLMs open source • Machine Learning / Deep Learning : Régression linéaire et non linéaire, Random Forest, XGBoost, Gradient Boosting, CNN, RNN, Transformers, Computer Vision • Cloud & Conteneurisation : Azure Fabric, Docker, App Container Services • Langages : Python, SQL • Frameworks & Outils : Streamlit, FastAPI, scikit-learn, PyTorch, TensorFlow Profil recherché • Bac+5 (Master / Ingénieur) en Data Science • Minimum 5 ans d’expérience en Data Science et Data Engineering. • Expérience éprouvée dans la mise en production de LLMs et l’usage de LangChain / LangGraph. • Bonne maîtrise des LLMs open source et Azure OpenAI via Hugging Face. • Solides compétences en modélisation prédictive, automatisation et industrialisation de modèles IA. • Esprit analytique, rigueur et autonomie.

CDI

Offre d'emploi
Ingénieur DevOps - SI médical H/F

VIVERIS
Publiée le

40k-50k €
Grenoble, Auvergne-Rhône-Alpes

Contexte de la mission : Dans le cadre d'un projet au sein du domaine médical, la mission se déroule au sein d'une infrastructure Kubernetes de production «on premise». L'objectif est d'assurer la mise à jour et l'évolution de composants clés (registry Harbor, reverse proxy Traefikee, authentification LDAPs vers OIDC) et de mettre en place les procédures associées pour garantir la pérennité des opérations. Le consultant interviendra également sur des activités de support et de développement autour des environnements DevOps, en lien direct avec les équipes Data Science et Infrastructure.L'environnement technique inclut Kubernetes, Ansible, Helm, GitLab CI, Docker, Artifactory, Python, R, ainsi que des outils de gestion de workflows (Prefect, Dagster, HTCondor). Responsabilités : Mettre à jour le registry Harbor (2.2 vers 2.14) et le reverse proxy Traefikee dans le cluster Kubernetes, avec documentation des procédures associées ; Mettre en place une nouvelle méthode d'authentification de LDAPs vers OIDC ;Assurer le support DevOps des utilisateurs Data Science (applications, workflows, environnements) ; Contribuer aux projets DevOps sur les thématiques Helm, GitLab CI, Docker, Artifactory, Python et R ; Apporter un soutien au support infrastructure Kubernetes/Ansible ; Garantir la fiabilité et la continuité des services pendant les absences des référents internes.

Freelance

Mission freelance
Data Engineer AWS

TEOLIA CONSULTING
Publiée le
Big Data
CI/CD

12 mois
400-550 €
Paris, France

Nous recherchons pour l'un de nos clients, un Data Engineer expérimentés pour nous accompagner dans la conception, le développement et la gestion d'infrastructure AWS orientée médias. Missions principales : Développer et industrialiser des pipelines de données et microservices sur AWS. Assurer la qualité, la fiabilité et l’accessibilité des données. Collaborer avec les équipes Data Science pour répondre aux besoins métiers. Maintenir et optimiser les systèmes existants. Participer à la collecte des besoins et à la documentation technique.

Freelance

Mission freelance
DBA Snowflake

SQLI
Publiée le
Python

6 mois
500-600 €
Paris, France

Bonjour, Pour l'un de mes grands comptes parisiens, je suis à la recherche urgente d'un DBA Snowflake. L’équipe Architecture & Data Engineering de la Direction DATECH est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data, Science & IA, CRM, Pub etc .. La mission : Au quotidien, vous menez les travaux de définition et de revue d’architecture de la Data Warehouse/Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions sont : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Vous intervenez sur la conception de l’ensemble des travaux relatifs aux données du Groupe. Vous accompagnez également nos équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien notre démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur & d’expert Snowflake entre les équipes Data (AdTech, Product Owners, Data Analysts et opérationnels) du Groupe.

CDI

Offre d'emploi
Data Scientist/IA (H/F)

Amiltone
Publiée le

35k-40k €
Lyon, Auvergne-Rhône-Alpes

Le poste Mission : En tant que Data Scientist (H/F), vous serez en charge des missions suivantes : - Collecter et préparer des données - Nettoyer, transformer et structurer les données pour les rendre exploitables - Gérer la qualité des données - Construire des modèles prédictifs et des algorythmes de machine learning - Veiller à l'amélioration continue des performances des modèles - Suivre les avancées en data science, machine learning et intelligence artificielle Stack technique: -Machine Learning -Python -SQL -Pandas / Numpy -Flask -Tableau/ Power BI

Offre premium
CDI

Offre d'emploi
Tech Lead Databricks

KOLABS Group
Publiée le
Big Data
CI/CD
Databricks

Lyon, Auvergne-Rhône-Alpes

Nous recherchons un Tech Lead Databricks pour rejoindre l’équipe Data en pleine expansion de notre client, leader dans le domaine de la maitrise des risques. Vous aurez la responsabilité d’assurer la conception et la mise en œuvre de solutions de data engineering et data science sur la plateforme Databricks, tout en assurant le leadership technique pour une équipe de développeurs et data engineers. MISSIONS Leadership technique Coacher une équipe de data engineers, data scientists, et développeurs travaillant sur la plateforme Databricks Mettre en place des bonnes pratiques de développement et veiller à la qualité du code (revues de code, tests unitaires) Conception et architecture Concevoir et implémenter des solutions techniques sur Databricks pour répondre aux besoins des équipes métiers (data analytics, data science) Définir des architectures évolutives et performantes pour l'ingestion, le traitement et l’analyse des données Participer à la modélisation de données Travailler en étroite collaboration avec les architectes, les équipes applicatives et équipes métiers pour définir des solutions adaptées Développement et intégration Développer des pipelines de données et des workflows de traitement de données dans Databricks Assurer l'intégration des solutions avec d'autres outils et systèmes (bases de données, systèmes de stockage, outils de BI) Participer au développement des tableaux de bord sous Power BI Optimisation des performances Identifier et résoudre les problèmes de performance dans les flux de données et l'architecture Mettre en place des mécanismes d'optimisation des coûts liés à l’utilisation de la plateforme Databricks Veille technologique et innovation Assurer une veille sur les nouvelles technologies et pratiques dans l’écosystème Big Data et Databricks Proposer des améliorations continues pour augmenter l’efficacité des processus et la qualité des données Accompagner et former les équipes IT aux bonnes pratiques ITIL

Freelance

Mission freelance
Data Steward Senior

Nicholson SAS
Publiée le
draw.io
JIRA
MEGA

10 mois
450-460 €
Lyon, Auvergne-Rhône-Alpes

Contexte : cellule Marché Data Science Profil : Data Steward Senior Missions Principales : Organisation des travaux : animation d'atelier, coordination, reporting, Revue de l’existant : lecture de documents, création de glossaire validé par les Data Owners, Modélisation des objets métiers : diagrammes UML simplifiés, Anlayse de la qualité des données : statistiques, indicateurs, mise à jour des modèles, Maintenir les lignages de données : entre sources et consommateurs, Communication avec les parties prenantes : supports, cartographies, réponses aux questions

Freelance

Mission freelance
ML Engineer confirmé

Teaminside
Publiée le
Apache Airflow
Apache Spark
MLOps

6 mois
500-650 €
Île-de-France, France

Nous recherchons un ML Engineer confirmé pour une mission de 3 à 6 mois au sein de l’entité Data Analyse & Data Science de la Data Factory Omnicanal. Objectif : accompagner la montée en puissance des cas d’usage marketing via l’IA, tout en respectant la stratégie de jeu responsable, avec un fort focus sur l’industrialisation et la robustesse des modèles ML. Missions principales Le/la ML Engineer interviendra notamment sur : Migration de l’existant Data Science d’Hadoop vers AWS S3 et Dataiku Portage, optimisation et industrialisation des pipelines de données Mise en place et suivi des bonnes pratiques MLOps (CI/CD, monitoring, amélioration continue) Développement et déploiement de modèles ML avancés adaptés aux enjeux marketing digital Documentation et partage de bonnes pratiques Infos pratiques 📍 Lieu : île de France – 2 jours de TT / semaine 📅 Démarrage : 29/09/2025

CDI

Offre d'emploi
Data Scientist Assurance

REDLAB
Publiée le
Apache Airflow
Docker
Pandas

40k-45k €
Paris, France

Dans le cadre d’un projet stratégique pour un grand acteur de l’assurance, nous renforçons notre équipe Data au sein du DataLab Groupe . Vous interviendrez sur des projets innovants de Data Science, de la R&D jusqu’à l’ industrialisation de modèles ML , avec un fort impact métier sur la lutte anti-fraude, la maîtrise des risques climatiques et la prévention des sinistres graves. Profil recherché 5+ ans d’expérience en Data Science , avec projets menés jusqu’à l’industrialisation. Forte capacité à encadrer, challenger et vulgariser auprès des équipes. Expérience en conduite du changement et interaction avec des utilisateurs métiers. Une curiosité et une veille active sur les nouvelles approches ML/IA.

Freelance
CDD

Offre d'emploi
Data Engineer AWS H/F

SMARTPOINT
Publiée le
Ansible
AWS Cloud
Docker

12 mois
40k-55k €
440-550 €
Île-de-France, France

Développement de la plateforme de microservices AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les media • Assurer la qualité, la fiabilité et l'accessibilité des données. • Développer les pipelines de traitement de données avec orientation media • Collaborer avec les équipes de data science pour comprendre les besoins en données et mettre en place les solutions appropriées. • Recueillir les besoins avec des métiers ou clients. • Assurer la maintenance et l'optimisation des systèmes de données existants. Livrables attendus : Des analyses, développements et documentations de qualité.

Freelance
CDI

Offre d'emploi
Lead python et Data

AVALIANCE
Publiée le
Modèle Conceptuel des Données (MCD)
Modélisation
Pandas

2 ans
40k-60k €
400-600 €
Rueil-Malmaison, Île-de-France

• Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…)

Freelance

Mission freelance
Expert Data Scientist – Secteur Public (H/F)

Bek Advisory
Publiée le
Dataiku
Microsoft Power BI

6 mois
400-750 €
Paris, France

Compétences clés : Dataiku • Microsoft Power BI • MySQL • Talend Dans le cadre de projets stratégiques de transformation et de modernisation du secteur public, nous recherchons un(e) Expert Data Scientist H/F freelance pour accompagner nos clients dans la valorisation et l’exploitation avancée de leurs données. Vous interviendrez en tant qu’expert(e) sur des problématiques complexes, avec un rôle clé dans la définition et la mise en œuvre de solutions data-driven à forte valeur ajoutée. La maîtrise de Dataiku est indispensable. Vos missions : Piloter le développement de modèles de data science complexes dans Dataiku : exploration, apprentissage automatique, analyses prédictives et prescriptives. Définir les stratégies de collecte, d’intégration et d’exploitation de données hétérogènes en garantissant leur qualité et leur conformité réglementaire (RGPD, sécurité des données). Concevoir et automatiser des pipelines de données robustes avec Dataiku et/ou Talend. Construire et superviser la réalisation de tableaux de bord et visualisations avancées avec Tableau ou Power BI, en réponse à des enjeux métiers variés. Jouer un rôle de référent(e) technique auprès des équipes internes et des interlocuteurs métiers, en les accompagnant dans la formalisation des besoins et la diffusion d’une culture data. Contribuer activement aux choix d’architecture et à la mise en place des bonnes pratiques data science au sein des projets.

82 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous