Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 110 résultats.
Freelance

Mission freelance
Product Owner Data / IA / RPA – Valorisation de la Donnée

Publiée le
Dataiku
MLOps
RPA (Robotic Process Automation)

12 mois
420 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Dans le cadre de sa stratégie de transformation 2025–2026 , notre client souhaite renforcer son dispositif autour de la valorisation de la donnée et de l’ industrialisation des cas d’usage Data, IA et RPA . L’objectif est d’accompagner l’équipe de développement DATA dans la structuration, la priorisation et la livraison de produits à forte valeur ajoutée, tout en garantissant leur alignement avec les besoins métiers. Rattaché(e) au manager de l’équipe Data , vous jouerez un rôle clé de pivot entre les métiers et les équipes techniques , de la détection des opportunités jusqu’à la mise en production. Vous serez garant(e) de la valeur métier et de l’ impact opérationnel des solutions développées. MISSIONS PRINCIPALES Pilotage et valorisation des initiatives Data / IA / RPA • Identifier, cadrer et prioriser les cas d’usage Data, IA, RPA et MLOps en lien avec les directions métiers. • Challenger les besoins exprimés et accompagner les métiers dans la définition de la valeur ajoutée (quantitative, qualitative, expérience collaborateur). • Animer les comités Data & Innovation et coordonner les différentes parties prenantes (métiers, IT, data scientists, développeurs). • Porter les sujets d’innovation à fort impact métier : automatisation, intelligence artificielle, machine learning. • Aider à la rédaction des études de solution et à la formalisation des modèles opérationnels . Suivi de la structuration et de la livraison des produits • Prioriser les développements au sein des squads en fonction de la valeur business. • Suivre la conception, le développement et la livraison des produits Data. • Contribuer à l’ amélioration continue des pratiques et au modèle opérationnel de l’équipe Data. • Mesurer les résultats et assurer le reporting de la valeur produite . LIVRABLES ATTENDUS • Animation et comptes rendus de comités Data / IA / RPA. • Cadrage et documentation des cas d’usage Data et IA. • Études de solution détaillées et modélisation des processus opérationnels. • Plans d’action et priorisation des initiatives. • Reporting de la valeur métier générée (KPI de performance et d’impact).
Freelance

Mission freelance
Chef de Projet Delivery IA / Data – Agence Digitale

Publiée le
Data science
Preuve de concept (POC)

3 mois
440-600 €
Paris, France
Télétravail partiel
🔹 Contexte : Nous recherchons un Chef de Projet Delivery spécialisé en IA/Data pour accompagner une agence digitale dans le cadrage, le pilotage et la mise en production de projets innovants autour de la data et de l’intelligence artificielle. 🔹 Compétences obligatoires : Ancien Data Scientist (solide compréhension technique) Maîtrise des modèles de données Expérience en POC & prototypes Animation d’ateliers et cadrage fonctionnel Pilotage de delivery (du design à la mise en production) 🔹 Profil recherché : +7 ans d’expérience en Data/IA dont plusieurs en gestion de projet Capacité à traduire les besoins métier en solutions data concrètes Aisance en communication, animation et coordination d’équipes pluridisciplinaires 🔹 Conditions de mission : Lieu : Paris Nord (2 jours de télétravail/semaine) Démarrage : ASAP Durée : longue mission (renouvelable)
Freelance

Mission freelance
Data LLM Engineer

Publiée le
Large Language Model (LLM)
Machine Learning
Python

12 mois
520-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre de projets innovants autour de l’Intelligence Artificielle et plus particulièrement des Large Language Models (LLM) , nous recherchons un Data LLM Engineer pour rejoindre une équipe spécialisée dans la mise en place de solutions IA génératives. Missions Concevoir, développer et optimiser des pipelines de données adaptés à l’entraînement et au fine-tuning de modèles LLM. Participer à la préparation, la structuration et l’étiquetage de jeux de données massifs et hétérogènes. Intégrer et déployer des modèles de langage dans des environnements de production. Mettre en place des mécanismes d’évaluation, monitoring et amélioration continue des performances des modèles (metrics, hallucinations, biais, robustesse). Collaborer étroitement avec les Data Scientists, MLOps et Software Engineers pour industrialiser les solutions IA. Assurer une veille technologique sur les dernières avancées en NLP, LLM et IA générative.
Freelance

Mission freelance
TechLead IA / ML Ops

Publiée le
IA Générative

6 mois
100 €
Paris, France
Pour notre client basés en IDF , nous cherchons un TechLead IA / ML Ops Sénior, Missions principales Pilotage des cas d’usage IA : accompagner les équipes métiers dans le cadrage, traduire leurs besoins en spécifications techniques, challenger les approches proposées par les Data Scientists. Modélisation et industrialisation : garantir la performance, la robustesse, l’explicabilité et la conformité des modèles IA ; assurer leur industrialisation et déploiement. ML Ops & Architecture : définir le cadre ML Ops du groupe (reproductibilité, automatisation, versioning, gouvernance des modèles) ; mettre en place pipelines CI/CD, monitoring et bonnes pratiques de développement. Qualité & conformité : contrôler la traçabilité, la documentation et la conformité (IA Act, RGPD, normes internes). Auditer et valider les modèles avant mise en production.
Freelance

Mission freelance
Product Owner IA

Publiée le
Architecture

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Product owner Spécialités technologiques : Intelligence artificielle, API, Base de données Compétences Soft skills Adaptation MISSIONS Piloter la stratégie, l’adaptation et le déploiement d’actifs d’Intelligence Artificielle à l’échelle de plusieurs entités métiers, dans le cadre d’un programme de transformation. Le Product Owner assure la coordination entre les équipes techniques et métiers afin de garantir la faisabilité, l’intégration, l’adoption et l’amélioration continue de la solution IA, sans créer un produit from scratch mais en industrialisant et en adaptant un actif existant. Responsabilités Clés : Vision & Stratégie - Contribuer à définir et porter la vision produit IA en lien étroit avec le département Innovation. - S’assurer de l’alignement avec la roadmap globale du programme de transformation et les priorités stratégiques du Centre d’Excellence IA. Gestion du Backlog & Delivery - Gérer et prioriser le backlog de scaling de la solution, avec un focus sur l’adaptation technique, l’intégration multi-plateformes et l’amélioration continue. - Travailler quotidiennement avec le Tech Lead et le Lead Architect pour évaluer la faisabilité, arbitrer les choix techniques et garantir la cohérence des déploiements. Coordination & Engagement des Parties Prenantes - Collaborer avec les équipes métiers, data scientists, ingénieurs, ainsi que des partenaires externes pour recueillir les besoins et assurer l’intégration fluide des actifs IA. - Mobiliser les parties prenantes afin de lever les points de blocage, faire avancer les décisions et respecter les jalons de livraison. Approche Utilisateur & Adoption - Assurer la prise en compte des besoins utilisateurs finaux tout en maîtrisant les contraintes IT et sécurité. - Collecter les retours utilisateurs pour améliorer la performance et l’expérience produit. Performance & Pilotage - Définir et suivre les KPIs, mesurer l’impact des fonctionnalités et orienter les décisions produit sur la base de données factuelles. - Superviser la rédaction de la documentation produit et technique (guides d’intégration, documentation API, manuels utilisateurs). - Mettre en place une stratégie de partage de code et de déploiement pour l’intégration dans plusieurs entités métiers. - Participer à la définition de la feuille de route d’industrialisation à long terme des assets IA. - Identifier des opportunités de réutilisation, de mutualisation et de scaling des solutions IA existantes.
Freelance

Mission freelance
Data Analyst

Publiée le
Data analysis
Microsoft Power BI
Python

6 mois
Centre-Val de Loire, France
Télétravail partiel
TEKsystems recherche pour le compte de son client : Un Data analyst/Power BI L’objectif est d’optimiser les processus internes, améliorer la connaissance client, et soutenir les décisions stratégiques à travers la donnée. Missions principales Collecter, nettoyer et structurer les données issues de différentes sources (internes et externes) Réaliser des analyses exploratoires et statistiques pour identifier des tendances, anomalies ou leviers d’optimisation Construire des dashboards interactifs et automatisés (Power BI, Tableau, etc.) Collaborer avec les équipes métiers (actuariat, marketing, gestion des sinistres) pour traduire les besoins en analyses concrètes Participer à la mise en place de modèles prédictifs en lien avec les Data Scientists Documenter les processus et assurer la traçabilité des traitements
Freelance

Mission freelance
Data Engineer – GCP / BigQuery / DBT

Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

12 mois
Toulouse, Occitanie
Télétravail partiel
Contexte de la mission Nous recherchons un Data Engineer expérimenté afin de renforcer l’équipe Data et contribuer à la mise en place, l’optimisation et l’industrialisation de la plateforme de données sur Google Cloud Platform (GCP) . Vous interviendrez sur des problématiques de modélisation, transformation et exploitation de données avec BigQuery et DBT , en collaboration avec les équipes métier et analytics. Vos missions Concevoir, développer et maintenir les pipelines de données dans un environnement GCP. Implémenter et optimiser des modèles de données dans BigQuery . Mettre en place et maintenir les transformations avec DBT (Data Build Tool). Garantir la qualité, la performance et la fiabilité des traitements de données. Participer aux choix techniques et bonnes pratiques (CI/CD, documentation, monitoring). Collaborer avec les équipes Data Analysts / Data Scientists pour assurer la disponibilité et la pertinence des données.
Freelance

Mission freelance
Project Management GenAI (F/H) - 75

Publiée le
AI
Large Language Model (LLM)
Prince2

3 mois
Paris, France
Télétravail partiel
Contexte Nous sommes à la recherche d'un chef de projet confirmé avec une expérience significative pour notre client dans des environnements IA, data science ou tech-driven. Vous serez en charge de coordonner des projets complexes intégrant des technologies de pointe (GenAI, LLMs, RAG, Machine Learning) et impliquant des équipes pluridisciplinaires (Product Owners, Data Scientists, AI Engineers, pays). Mission - Définir et piloter les roadmaps projets en lien avec la stratégie IA. - Assurer la coordination multi-équipes et multi-pays (tech, business, data, PO). - Garantir le suivi opérationnel : livrables, planning, ressources, budget et risques. - Mettre en place et animer la gouvernance et le reporting auprès des sponsors. - Accompagner le déploiement et l’adoption des solutions GenAI à l’échelle. - Contribuer à la vulgarisation et la pédagogie auprès des parties prenantes.
Freelance

Mission freelance
Data Engineer (H/F)

Publiée le
Google Cloud Platform (GCP)
HFSQL
Microsoft Power BI

2 ans
100-450 €
Lille, Hauts-de-France
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Contexte : L'objectif principal est de standardiser et maintenir l'ensemble des KPI, revoir et mettre au propre les modèles de données avec la création d'un dictionnaire de données issue de notre Data Catalog , accompagner le PO dans les échanges autour de la DATA avec les BU et traiter la dette technique et sujets demandés par les équipes transverses et Product Manager. Les missions attendues par le Data Engineer (H/F) : Collecte et préparation des données : Identifier, collecter et agréger les données pertinentes issues de diverses sources (logs applicatifs, bases de données transactionnelles, données partenaires). Modélisation et développement : Concevoir et construire des flux de données (ETL/ELT) optimisés pour le traitement de gros volumes de données. Industrialisation : Mettre en production des scripts et modèles d'analyse de données, en assurer la maintenance et garantir leur bon fonctionnement. Data Analyse et Visualisation : Traduire les besoins métier en indicateurs de performance (KPIs). Collaboration : Travailler en étroite collaboration avec les Data Scientists pour l'intégration de modèles prédictifs, et avec les équipes métier (analystes fraude, experts assurance) pour bien comprendre les enjeux et affiner les solutions.
Freelance

Mission freelance
Mission Freelance – Data Analyst

Publiée le
Microsoft Power BI

1 an
400-590 €
Île-de-France, France
Télétravail partiel
Contribuer à la création et à l’exploitation du socle de données : Participer à l’audit des nouvelles sources de données disponibles dans le Datalake (GCP / BigQuery) . Intégrer et structurer ces données afin de renforcer la qualité, la fiabilité et l’exploitabilité du socle. Collaborer avec les équipes techniques pour garantir la cohérence et la performance de l’architecture Data. Développer et maintenir des dashboards stratégiques sous Power BI : Concevoir des tableaux de bord permettant de suivre les objectifs clés, les usages et les profils utilisateurs . Faire évoluer les dashboards existants en intégrant de nouveaux indicateurs ou en améliorant les calculs. Garantir la clarté, la pertinence et la valeur opérationnelle des visualisations fournies aux équipes métier et au management. Analyser en profondeur les profils et comportements des utilisateurs : Étudier les parcours des vidéonautes (programmes recrutants, fidélisants, engagement selon les canaux d’acquisition). Identifier les tendances de consommation par contenus, types d’écran et plateformes. Mesurer l’impact de la pression publicitaire , des nouvelles fonctionnalités ou de la distribution multi-partenaires sur l’expérience utilisateur. Produire des analyses permettant de mieux segmenter et comprendre les publics. Contribuer aux projets Data Science & Intelligence Artificielle : Participer aux initiatives Data Science visant à améliorer l’expérience utilisateur (recommandations, personnalisation, parcours fluidifiés). Apporter un support analytique pour l’optimisation des process internes (production, diffusion, marketing digital, monétisation). Collaborer avec les Data Scientists et les métiers pour transformer les insights en solutions concrètes et actionnables . Accompagner la diffusion et l’appropriation de la culture Data : Vulgariser les résultats et insights auprès des équipes non techniques. Contribuer à la montée en maturité des usages Data au sein de l’organisation. Proposer des axes d’amélioration et partager les bonnes pratiques en continu.
CDI

Offre d'emploi
Data Engineer

Publiée le
AWS Cloud
Azure
Databricks

45k-65k €
Paris, France
Télétravail partiel
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).
Freelance

Mission freelance
Senior Machine Learning Engineer(Computer Vision/ LLMs)

Publiée le
AI
AWS Cloud
Azure

1 an
510-570 €
Paris, France
Télétravail partiel
Au sein de l’équipe Digital Data , vous contribuerez en mettant la donnée et l’IA au service de la performance opérationnelle et de l’expérience client. Localisation : Lille ou Paris (hybride possible) Langue : Anglais requis (communication quotidienne dans un contexte international) Démarrage : dès que possible Type de mission : longue durée / temps plein Vos missions En tant que Senior Machine Learning Engineer , vous serez en première ligne pour concevoir, construire et déployer des produits IA de nouvelle génération pour les magasins Decathlon à l’échelle mondiale. Vous interviendrez notamment sur des problématiques de vision par ordinateur, LLMs, prévisions et détection d’anomalies . Responsabilités principales : Concevoir, développer et déployer des modèles ML de bout en bout (MVP et production). Piloter des projets en Computer Vision, LLM, séries temporelles, détection d’anomalies . Collaborer avec les Product Managers, ingénieurs et experts métier pour transformer les besoins en solutions IA robustes et scalables. Travailler sur des jeux de données massifs , en garantissant la qualité, le prétraitement et le feature engineering. Optimiser la performance des modèles et les déployer en production selon les bonnes pratiques MLOps . Explorer et tester de nouveaux algorithmes et outils du monde IA/ML. Encadrer et accompagner des profils plus juniors (Data Scientists / AI Engineers).
Freelance

Mission freelance
Product Owner Indexation Documentaires / AI

Publiée le
Framework
Méthode Agile

18 mois
100-450 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Product owner Spécialités technologiques : Gestion des données, AI Nous recherchons pour un de nos clients un Product Owner pour un projet d'indexation documentaire dans le cadre d'un programme contenant de l'intégration IA. Ce projet vise à développer et intégrer des solutions d’indexation documentaire avancées pour un usage dans des systèmes de Retrieval-Augmented Generation (RAG), permettant une exploitation optimale des données pour des cas d’usage IA. MISSIONS Le Product Owner aura un rôle pivot, assurant : - Stratégie produit : Définition de la vision et de la stratégie d’indexation documentaire, identification des opportunités d’innovation (NLP, RAG), et priorisation des cas d’usage selon la valeur business et l'impact sur la performance du RAG. - Gestion du backlog et priorisation : Définir, prioriser et gérer le backlog des fonctionnalités d’indexation. Garantir l’utilisation des méthodes de discovery pour identifier les besoins et suivre le delivery pour maximiser la valeur produite. - Collaboration inter-équipes : Travailler avec les équipes techniques (data scientists, ingénieurs IA, développeurs) et les équipes métier. Gérer les dépendances avec la plateforme AI [Nom du Client Anonymisé]. - Suivi et mesure de la performance : Définir et analyser les KPIs spécifiques au RAG (pertinence des résultats, temps de réponse, taux de couverture, coûts) et proposer des améliorations continues. - Gestion des données : Définir les stratégies de collecte, traitement et stockage des données documentaires. Assurer la qualité, la sécurité et la conformité (aspects éthiques et réglementaires). - Go to Market et Run : Accompagner la mise en main, garantir une documentation claire, des formations, et mettre en place le processus de support et de maintenance. Livrables attendus : - Roadmap opérationnelle - Backlog organisé et transparent, avec des spécifications détaillées. - Rapports de performance sur les KPIs. - Documentation technique et fonctionnelle des solutions développées. - Processus de déploiement et processus de run pour l’intégration au support opérationnel. Expertise souhaitée Le profil recherché doit posséder une solide expérience en gestion de produit dans un environnement technique complexe, avec une forte connaissance du domaine de l’IA, de l'indexation et du Natural Language Processing. Compétences et Connaissances Techniques : - Product Management : Expérience avérée en gestion de produit dans un environnement agile à grande échelle. Expertise du pilotage de produits et des principes de product management sur des projets techniques complexes. - Indexation Documentaire et RAG : Connaissance des concepts d’indexation documentaire, des systèmes de recherche documentaire (moteurs, vectorisation de documents) et des pipelines RAG. - Data et NLP : Maîtrise des principes de gestion des flux de données et des techniques de NLP appliquées à l’indexation et à la recherche d’information. - IA et Data Science : Connaissance des technologies d'IA, notamment pour les systèmes de recherche et de génération augmentée. Capacité à collaborer avec les équipes data science et IA engineering. - Méthodes Agiles : Maîtrise des méthodes Agiles (Scrum, Kanban) et connaissance du framework SAFe.
Freelance

Mission freelance
Analytics Engineer Senior - Workday Finance (localisation Lille)

Publiée le
DBT
SQL

12 mois
470-530 €
Lille, Hauts-de-France
Télétravail partiel
Contexte du poste L’Analytics Engineer est chargé de délivrer des datasets modélisés pour un domaine métier afin d'accélérer les cas d’usage. Il en assure la qualité , la disponibilité , le suivi et l’ accessibilité , pour permettre aux utilisateurs d’exploiter efficacement les données (Self Service Analytics, analyses, modèles, dashboards). Missions principales 1. Délivrer les bonnes données, à temps Assurer le rafraîchissement fréquent et fiable des données pour soutenir la prise de décision. Garantir la stabilité et la fiabilité des datasets exposés. Corriger rapidement les données corrompues. Anticiper et planifier l’évolution des datasets. Déployer les évolutions avec un délai court mais soutenable. 2. User Centric Connaître les utilisateurs et comprendre leurs usages métiers. Collaborer avec les PM Analytics, Data Analysts, Data Scientists et BI Engineers. Automatiser puis industrialiser les datasets nécessaires aux use cases. Suivre et mesurer l’utilisation réelle des datasets. Définir et communiquer le niveau de confiance dans les données. Informer sur l’état et les éventuelles corruptions des datasets. 3. Playmaker / Team player Participer au recrutement et à l’onboarding des nouveaux membres. Contribuer à la communauté Data (partage d’expérience, ateliers, revues de code, pair programming). Collaborer avec les équipes Core Data Products pour fiabiliser les pipelines. Être force d’entraide et de transmission auprès des autres Analytics Engineers. 4. Better Way Améliorer en continu les pratiques de delivery data. Faire évoluer la stack et les outils. Être proactif sur l’amélioration des processus. Contribuer à la réduction de l’impact écologique et économique des solutions déployées. Compétences techniques : Data modeling dbt SQL Tests and expectations Git Airflow Python Spark Data Architecture Databricks Redshift Indicateurs de performance Fiabilité et fraîcheur des données exposées Temps de correction des anomalies Fréquence des déploiements et time to market des datasets Satisfaction et autonomie des utilisateurs Contribution à la communauté Data et aux rituels d’équipe
110 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous