Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning à Paris

Ce qu’il faut savoir sur Machine Learning

Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Votre recherche renvoie 48 résultats.
CDI
Freelance

Offre d'emploi
DATA SCIENTIST

Publiée le
Natural Language Processing (NLP)

6 mois
40k-45k €
400-550 €
Paris, France
Contexte : Dans le cadre du développement de nos projets IA, nous recherchons un Data Scientist expérimenté maîtrisant Vertex AI et les technologies modernes de modélisation et d’industrialisation. Missions : Développement et entraînement de modèles ML/IA (supervisé, non supervisé, deep learning). Utilisation avancée de Vertex AI (training, pipelines, model registry, monitoring). Participation à la construction de solutions génératives ou prédictives (LLM, NLP, time series, recommendation…). Préparation, exploration et structuration de datasets à grande échelle. Déploiement, optimisation et suivi des modèles en production. Compétences recherchées : Très bonne maîtrise de Python , Scikit-Learn, TensorFlow ou PyTorch. Expertise Vertex AI (training, notebooks, pipelines, endpoints). Connaissance des environnements GCP (BigQuery, Storage, Pub/Sub). Solides compétences en statistiques, math appliquée et optimisation. Expérience avec LangChain / LangGraph / LLM (souhaitée). Profil attendu : 3 à 8 ans d’expérience en Data Science ou ML Engineering. Capacité à vulgariser et à proposer des solutions adaptées au besoin métier. Forte autonomie et sens du delivery.
Freelance

Mission freelance
DATA ANALYST SENIOR LOOKER

Publiée le

24 mois
300-600 €
Paris, France
Télétravail partiel
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
Freelance

Mission freelance
Technico-Fonctionnel / Scientific Data Engineering - Expert DataOps - R&D - 1117

Publiée le

6 mois
500-530 €
Paris, France
Télétravail partiel
Objectifs de la mission : Le Passenger Cognition Lab modélise les comportements des voyageurs afin d’optimiser les services digitaux et l’information voyageur en Île-de-France. Le Lab recherche un Ingénieur de Recherche DataOps capable de concevoir et enrichir une infrastructure de données permettant des études scientifiques sur la cognition des voyageurs. Enjeux et rôle du consultant - Traduire les besoins théoriques des chercheurs en pipelines de données robustes et architectures cloud performantes (AWS). - Garantir l’intégrité scientifique des traitements : gestion des biais statistiques, fiabilité des séries temporelles, reproductibilité. - Concevoir des environnements d’expérimentation Cloud fiables, orientés production de résultats scientifiques. - Documenter et structurer les travaux pour assurer leur pérennité. - Agir comme le bras technique du Lab dans un contexte de recherche. Environnement & contexte : R&D agile manipulant des volumes de données massifs et hétérogènes. Stack : AWS, Python (Scientific Stack), conteneurisation. Interaction clé avec l’IT Groupe pour favoriser le portage et l’exploitation des données dans d’autres projets. Livrable : Instrumentation des données pour la recherche (Scientific Data Engineering) Architecture Cloud pour l'expérimentation (Scientific Ops) Formalisation technique et Support à la valorisation Obligatoire : Thèse de doctorat (Data, ML ou Mathématiques Appliquées) garantissant sa capacité à dialoguer avec des chercheurs, couplée à une expérience opérationnelle forte en Ingénierie logicielle/Cloud. Expériences entre 7 et 9 années.
Freelance

Mission freelance
AI Engineer

Publiée le
AI
AWS Cloud
Azure

12 mois
500-800 €
75017, Paris, Île-de-France
Télétravail partiel
La mission s’inscrit dans le cadre du projet « Artificial Intelligence Engineering », au sein de la division GDAI du Groupe. Ce projet vise à accompagner les entités dans leur montée en compétence, en définissant et en appliquant les meilleures pratiques en matière d’ingénierie ML / LLM. Nous déployons un parcours de formation en ML/LLM Engineering à l’échelle mondiale du Groupe, et nous recherchons une personne pour soutenir cette initiative. Améliorer le référentiel de formation MLOps / ML Engineering utilisé à l’échelle mondiale au sein du groupe Faire évoluer le parcours vers des pipelines ML sur AWS et Databricks (actuellement sur Azure)
Freelance

Mission freelance
Expert et Architecte technique IA/ GenAI - Vorstone - Paris

Publiée le
AI
Architecture
Bash

1 an
600-800 €
Paris, France
Télétravail partiel
Vorstone cherche un Expert/Architecte technique IA/ GenAI pour un client basé à Paris Contexte de la mission Dans le cadre de son accélération sur l’Intelligence Artificielle et l’IA Générative, un groupe industriel international de premier plan recherche un Staff Engineer /Expert technique IA/ GenAI (H/F) pour renforcer ses équipes AI Activation. La mission consiste à accompagner plusieurs projets IA stratégiques (Data, Machine Learning, LLM, RAG…) tout en contribuant à la mise en place d’un cadre technique commun pour assurer la cohérence, la sécurité et la scalabilité des initiatives IA du groupe. Le Staff Engineer/ Expert technique / Architecte technique IA/ GenAI agira comme référent technique transverse, garant des bonnes pratiques d’ingénierie et de la qualité des solutions déployées dans l’écosystème IA. Objectifs et livrables Accompagner et encadrer techniquement plusieurs projets IA / GenAI, de la conception à la mise en production. Définir et promouvoir les bonnes pratiques techniques (MLOps, LLMOps, DevSecOps, cloud architecture). Concevoir des architectures de référence pour les solutions IA, en veillant à leur sécurité, leur scalabilité et leur maintenabilité. Industrialiser les approches IA : création de pipelines, intégration CI/CD, automatisation et monitoring. Assurer la cohérence technique entre les différents projets IA du groupe. Participer à la construction du socle commun (“AI Platform”) sur lequel s’appuient les équipes projet. Encadrer et accompagner les ingénieurs data, ML et software dans la montée en compétence. Effectuer une veille active sur les outils et technologies IA émergentes (LLM, RAG, orchestrateurs, vector DB, etc.).
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Freelance

Mission freelance
data scientist

Publiée le
Data science

12 mois
400-550 €
Paris, France
Télétravail partiel
Prise en charge la réalisation des études et du développement des cas d’usage d’intelligence artificielle identifiés dans le cadre de plan stratégique mais aussi de besoins ad hoc remontés pour améliorer notamment l’efficacité opérationnelle. Dans ce cadre les missions et activités principales sont : • Identifier, tester et implémenter des approches permettant d’exploiter des technologies de machine learning et d’IA générative au service des processus risques • Explorer et exploiter les données internes • Faire évoluer les applicatifs IA existants (notamment applicatif de production GCP sur un cas d’usage de ciblage) • Echanger avec les équipes DSI et autres équipes de Data Scientists du Groupe • Assurer une veille technologique sur les évolutions des technologies d’IA générative
Freelance
CDD
CDI

Offre d'emploi
Consultant Data Databricks (F/H)

Publiée le
Apache Spark
Databricks
DevOps

3 ans
60k-75k €
550-610 €
Paris, France
Télétravail partiel
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
CDI

Offre d'emploi
Data Scientist

Publiée le
Azure
Data science

Paris, France
Télétravail partiel
Vous êtes passionné·e par la donnée, l’intelligence artificielle et l’impact business ? Rejoignez une équipe innovante qui met la data au cœur des décisions stratégiques et participez à la conception de modèles prédictifs et de solutions à fort impact pour des projets internationaux. 🚀 Vos missions En tant que Data Scientist , vous serez au cœur de la transformation data. Vos principales responsabilités : Concevoir, développer et industrialiser des modèles de machine learning et d’ IA répondant à des problématiques concrètes (prévision de la demande, optimisation marketing, performance industrielle, etc.) Collaborer avec les équipes Data Engineering et les métiers pour traduire les besoins business en solutions data performantes Analyser, structurer et valoriser de grands volumes de données issues de sources multiples Garantir la qualité, la robustesse et l’interprétabilité des modèles déployés Participer activement à la diffusion d’une culture data-driven au sein de l’entreprise
CDI

Offre d'emploi
Cloud Data Engineer

Publiée le
Big Data
Cloud

60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Freelance

Mission freelance
QA orienté IA

Publiée le
QA

6 mois
400-500 €
Paris, France
Bonjour, Pour le compte de l'un de mes clients parisiens dans le secteur de l'édition, je suis à la recherche d'un QA avec un verni IA. La mission s'articule sous le cadre du développement de leurs projets basés sur l’IA, ils recherchent donc un QA Engineer passionné par l’innovation et la qualité logicielle . Le client souhaite monter une cellule QA en transverse (web/mobile /e-com...) avec à minima un QA lead en front & par la suite, y ajouter 1 ou 2 testeurs selon développement de la cellule visée. Volonté de mettre de l'IA au service du test Vous interviendrez sur la validation de modèles d’IA, l’automatisation des tests et l’amélioration continue des pipelines ML.
CDI

Offre d'emploi
Architecte Data spécialisé Databricks (F/H)

Publiée le

80k-90k €
Paris, France
Télétravail partiel
Data Architect spécialisé Databricks (F/H) - CDI - Paris 12 - 80-90K€ Contexte Vous rejoindrez la Data Factory , une structure d'excellence au sein du département "Fabrique Digitale" de notre client. Cette équipe accompagne des projets complexes de transformation data en rassemblant l'ensemble des compétences nécessaires : BI, Big Data, Data Analytics, Dataviz et Data Science. La Data Factory adresse des enjeux stratégiques majeurs : construction de référentiels de données, datawarehouses opérationnels, outillages de simulation et prévisions, datalakes, algorithmes prédictifs et tableaux de bord décisionnels. Vous piloterez le déploiement de la plateforme data groupe qui repose sur des concepts architecturaux innovants dont la notion de Data Mesh et des offres de self-service métier. De nouveaux concepts architecturaux structurent la plateforme. Votre expertise sera mobilisée pour : Fournir une expertise d' Architecte Solution orientée usages métiers, avec une connaissance approfondie des projets data en cloud public Servir de référent technique auprès des squads métiers en mode Agile pendant les phases de build et transition vers le run Challenger les besoins et imposer les bonnes pratiques du cadre de cohérence technique Assurer un relationnel excellent avec les équipes projets et les métiers Vous cumulerez les responsabilités d'un architecte opérationnel et d'un super-tech-lead, avec une implication quotidienne auprès des équipes de développement. Missions : Pilotage technique et accompagnement des projets Fournir l'expertise technique plateforme aux squads projets, du cadrage jusqu'à la mise en service Représenter la plateforme data groupe lors des cérémonies Agile (Go/NoGo, réunions stratégiques) Assister les tech leads dans leurs choix architecturaux et la rédaction des DAT (Document d'Architecture Technique) Identifier et évaluer les risques techniques (fonctionnalités manquantes, impacts planning Onboarding et accompagnement des équipes Réaliser l'onboarding des squads projets pour l'architecture plateforme et les bonnes pratiques Assister aux entretiens de recrutement des tech leads et développeurs métier Coacher les équipes pour optimiser les solutions et mettre en place des méthodologies de monitoring Sensibiliser à la gouvernance des données, en particulier données sensibles et données à caractère personnel Supervision et coordination Superviser les interventions des Data Ingénieurs plateforme (ingestion, exposition de données) Coordonner avec les leads de pratique (Data Management, Dataviz, ML Ingénieur) S'assurer de la validation architecturale de bout en bout avec les autres SI Participer aux phases de VSR (Verification & Service Readiness) Support et exploitation Contribuer au MCO (Maintien en Condition Opérationnelle) en tant que support N3 Participer à la résolution d'incidents en production Réaliser les actes de restauration du service Conduire l'analyse des root causes des dysfonctionnements Documentation et qualité Vérifier la complétude des contrats d'interface fournis par les squads projets Garantir la qualité technique et documentaire des livrables Contribuer à l'amélioration des briques socle et leur cadrage technique Contributions transversales Apporter votre expertise de data engineer et d'architecte opérationnel à la Data Factory Contribuer à des PoC et études ciblées Participer aux cérémonies Scrum Agile Réaliser des démos et présentations auprès des clients Livrables attendus Développements et scripts demandés Documents de cadrage, DAT et rapports d'avancement Macro estimations budgétaires et offres de solution technique Analyses de risques techniques et audits de faisabilité Cahiers de tests et procédures d'installation en production Documents de paramétrage et procédures de maintenance Rapport de fin de mission détaillant la démarche, développements réalisés, difficultés et solutions apportées
Freelance

Mission freelance
AI Engineer Azure – IA Générative

Publiée le
Microsoft Copilot Studio
Azure AI Foundry
Azure DevOps

3 mois
Paris, France
Télétravail partiel
Nous recherchons un AI Engineer Azure confirmé pour le compte d’un grand groupe dans le cadre d’un projet stratégique autour de l’IA Générative . La mission consiste à concevoir et développer des solutions d’assistants IA en exploitant les services avancés de la plateforme Microsoft Azure . 🎯 Vos missions principales : Concevoir et développer des solutions IA Générative (LLM, RAG, Agents) dans Azure. Mettre en œuvre et exploiter les services Azure AI Foundry et Copilot Studio . Déployer des assistants IA répondant aux besoins métiers et intégrés aux outils internes. Développer et intégrer des modèles IA/ML personnalisés (fine-tuning, optimisation). Collaborer avec les équipes techniques et métiers pour définir les cas d’usage et maximiser la valeur business. Contribuer à la mise en production et à l’orchestration des pipelines IA via Azure DevOps.
Freelance

Mission freelance
Chef de projet IA

Publiée le
Python

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Chef de projet Spécialités technologiques : AI, Machine learning, RGPD MISSIONS En tant que Chef de Projets, vos principales missions sont : - Assistance à la définition du besoin métier - Organiser et piloter un portefeuille de projets, dont les interlocuteurs sont soient internes, soient des prestataires externes - Garant du respect du planning général, de l’étude d’opportunité à la mise en œuvre, en passant par le Cadrage Détaillé - Garant des fonctionnalités mises en œuvre, permettant de répondre complètement aux besoins exprimés par les directions - Garant du respect du budget : Suivi mensuel des consommés / du reste à faire - Garant du respect des procédures d’assurance qualité (instances, documentation, …) - Etre le référent auprès des différents interlocuteurs (architectes, infra, Techlead. . .) - Préparer, animer, réaliser le compte rendu de l’ensemble des instances projet (Comité de projet / Ateliers / . . . ) - Être autonome dans la prise en charge des projets, de leur lancement à leur mise en production. - Être force de proposition sur l’amélioration des processus internes du service. Expertise souhaitée - Expérience significative (3+) en conduite de projet IT en milieu bancaire - Leadership d’influence : bon relationnel, rigueur, sens de l'organisation, autonomie, avec capacité à faire avancer des équipes sans lien hiérarchique - Excellente capacité à comprendre et maîtriser les besoins métiers et les impératifs IT - Esprit d'initiative et capacité d'anticipation - Pensée systémique et esprit facilitateur : capacité à anticiper les dépendances et à remonter rapidement les risques, proposer des solutions en partenariat avec l’ensemble des interlocuteurs. Savoir poser les bonnes questions et débloquer les frictions. - Capacités à communiquer avec aisance (écrit et oral) et à faire passer les messages (à l’écrit comme à l’oral) de manière ferme et diplomatique. - Excellente culture de l’IA et des frameworks back / front associés : - Langage de programmation : Python, en DevOps et en MLOps. - Environnement IA AWS : Sagemaker, bedrock, agentcore (…). - Algorithmes de Machine Learning, DL et d’AI Générative, cycle de vie des modèles - Technologies Front-End (Figma, Angular, React etc.) et technologies Back-end (Java SprintBoot, NodeJS, Python etc.). - Bases de données (SQL, NoSQL, graphiques) et des frameworks distribués (Spark, pySpark, SparkSQL, etc.). - Pipelines d'intégration continue/ livraison continue (CI/CD). - Principes de containérisation (Docker, Kubernates) - Connaissance règlementaire (RGPD, IA Act, cadre normatif, gouvernance interne…) - Maîtrise complète impérative des outils bureautiques du pack MS Office - Anglais technique opérationnelle
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Dataiku
Microsoft Power BI
PySpark

1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Freelance

Mission freelance
Expert Technique – SSDLC & Solutions IA

Publiée le
Python

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Expert technique Spécialités technologiques : Infrastructure, Cloud, QA, API, Automatisation des tests Au sein d’un environnement international, la mission consiste à co-définir, expérimenter et déployer un cadre de développement logiciel sécurisé (SSDLC) intégrant les apports récents de l’intelligence artificielle et de l’automatisation. Le rôle requiert une solide expérience technique, une compréhension fine du cycle de vie logiciel et une capacité à accompagner la transformation des pratiques d’ingénierie logicielle dans un contexte complexe et distribué. MISSIONS Responsabilités principales 1. Co-définition et consolidation du SSDLC - Collaborer avec les équipes sécurité, développement et architecture pour co-construire le futur cadre SSDLC. - Intégrer des outils d’assistance au codage (Copilot, etc.) et des pratiques de sécurité automatisées dans les différentes phases du cycle. - Définir les contrôles de sécurité et mécanismes de validation pour le code généré par IA. - Rédiger la documentation, les playbooks et supports de formation pour faciliter l’adoption du SSDLC.* - Contribuer à l’amélioration continue des processus de développement et de validation. 2. Expérimentation et innovation autour de l’IA et des agents logiciels - Piloter des proof-of-concepts sur les assistants de codage, la génération de code et les workflows agentiques. - Concevoir et exécuter des expérimentations pour mesurer les gains de productivité, l’impact sur la qualité du code et les implications sécurité - Construire des prototypes intégrant l’IA dans tout le cycle de développement (planification, codage, test, déploiement, maintenance). - Analyser les données issues de ces expérimentations et formuler des recommandations stratégiques. - Participer activement à la communauté interne des développeurs IA et au partage de connaissances. 3. Évolution et support des plateformes internes - Faire évoluer l’assistant de code interne en y intégrant des fonctionnalités avancées et des garde-fous de sécurité. - Intégrer les outils dans les IDE et pipelines CI/CD existants pour une adoption fluide. - Contribuer à l’évolution de la plateforme d’orchestration de sécurité : détection de vulnérabilités, automatisation des tests, Intégration IA. - Développer des mécanismes d’évaluation automatisée de la qualité du code et des tableaux de bord d’excellence technique. - Collaborer avec les équipes cloud et sécurité pour aligner les solutions sur les standards internes (AWS, Azure, Kubernetes, OpenShift/RedHat). Expertise souhaitée - Excellente maîtrise du développement web moderne (JavaScript/TypeScript, Python, Node.js, React/Vue/Angular). - Connaissance approfondie de plusieurs langages (Java, Go, C#, etc.) et des architectures microservices et cloud-native. - Maîtrise des pipelines CI/CD, du déploiement sur AWS et Azure, de la containerisation (Kubernetes, OpenShift) et de l’Infrastructure as Code. - Expérience avec les outils de sécurité : SAST/DAST, gestion des dépendances et des secrets, pratiques de codage sécurisé. - Familiarité avec les cadres de sécurité (NIST, OWASP SAMM, ISO 27001) et les outils de productivité développeur. - Connaissance pratique des LLM, frameworks d’agents IA, prompt engineering, et intégration de modèles via API. - Expertise ML appliquée à l’ingénierie logicielle (détection de vulnérabilités, analyse de code, scoring de qualité). - Compétences fonctionnelles et comportementales Une certification QA constitue un atout. Profil recherché - Tech Lead ou Expert Software Engineering avec une solide expérience du développement sécurisé et de l’intégration de l’IA dans les pratiques d’ingénierie. - Familiarité avec les outils d’assistance au développement (Copilot, CodeWhisperer, etc.). - Expérience dans la conception d’applications, le déploiement et la gestion du cycle de vie logiciel complet. - Capacité à interagir avec de multiples parties prenantes, à la croisée du développement, de la recherche et de la sécurité. Compétences Technologies et Outils React C# Angular AWS JS Python CI/CD TypeScript Azure Redhat JavaScript Kubernetes Méthodes / Normes ISO 27001

Les métiers et les missions en freelance pour Machine Learning

Data scientist

Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.

Data analyst

Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.

Développeur·euse IA/Machine Learning

Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.

Ingénieur·e R&D

L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.

48 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous