Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning à Paris

Ce qu’il faut savoir sur Machine Learning

Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Votre recherche renvoie 52 résultats.
Freelance

Mission freelance
Ingénieur Azure AI & Cognitive Services

JobiStart
Publiée le
AI
Azure

3 ans
400-550 €
Paris, France
Description du poste : Au sein du lab d'innovation, vous concevez et déployez des solutions d'intelligence artificielle basées sur les services Azure. Votre mission consiste à intégrer des capacités cognitives (Vision, Speech, Language, Decision) dans les applications bancaires pour automatiser les processus et améliorer l'expérience utilisateur. Vous développez des solutions utilisant Azure OpenAI (GPT-4) pour le traitement du langage naturel, le résumé de documents juridiques ou l'analyse de sentiment. Vous mettez en œuvre des architectures MLOps sur Azure Machine Learning pour industrialiser le cycle de vie des modèles, de l'entraînement au déploiement. Vous travaillez sur l'optimisation des coûts (FinOps AI), la sécurité des modèles et l'éthique des algorithmes. Vous collaborez avec les data scientists pour transformer les prototypes en services IA robustes, scalables et directement intégrés aux workflows métiers de la banque.
Freelance

Mission freelance
Analyste CyberSoc SPLUNK

IBSI
Publiée le
CrowdStrike
Endpoint detection and response (EDR)
Splunk

12 mois
520-560 €
Paris, France
Analyser, investiguer et traiter les incidents de sécurité. Remédiation, contribution à l’amélioration continue et à l’optimisation des outils, règles de détection et scripts d’automatisation. Mise en place de projets sur Splunk ( RBA, Machine Learning ToolKit ) pour d’optimiser la couverture de détection. Assurer une veille sur les menaces et vulnérabilités, Participer au partage de renseignements fiables et contextualisés, Exécuter des activités régulières de « Threat Hunting » Développer de nouvelles hypothèses de recherche. Produire des rapports réguliers sur ses activités et maintiendra les bases de connaissances (Confluence, Git, SharePoint). Compétences requises : Compétences solides sur Splunk (certification PowerUser appréciée) Maîtrise de MITRE DETECT & DEFEND Bonnes connaissances des solutions EDR (Crowdstrike, XDR PA, MDE) Maîtrise des bases en analyse de malwares, rétro-conception et analyse post-mortem Connaissance du renseignement cyber et des formats de partage (STIX, OpenIOC) Connaissances sur les TIP (MISP, OpenCTI, ThreatQuotient, etc.) Connaissances sur les tactiques, techniques et procédures (TTPs) des attaquants Langue de travai l : Anglais (bon niveau) Compétences demandées Compétences Niveau de compétence Maîtrise de MITRE DETECT & DEFEND Bonnes connaissances des solutions EDR (Crowdstrike, XDR PA, MDE) Connaissances sur les tactiques, techniques et procédures (TTPs) des attaquants Maîtrise des bases en analyse de malwares, rétro-conception et analyse post-mortem Connaissance du renseignement cyber et des formats de partage (STIX, OpenIOC) Compétences solides sur Splunk (certification PowerUser appréciée) Connaissances sur les TIP (MISP, OpenCTI, ThreatQuotient, etc.)
Freelance

Mission freelance
Expert Cybersécurité & DevSecOps GenAI – Azure / M365

Comet
Publiée le
AWS Cloud
Azure
CI/CD

12 mois
650-750 €
Paris, France
Dans le cadre du renforcement de son expertise cybersécurité autour des environnements Cloud, Data et Intelligence Artificielle , une grande organisation recherche un Expert Cybersécurité & DevSecOps GenAI pour intervenir sur des sujets stratégiques à fort enjeu. Vous intégrerez une communauté d’experts en charge de la sécurisation des usages GenAI (IA générative) et interviendrez en support des centres de compétences, des équipes projets et des entités métiers, en France comme à l’international. Votre rôle consistera à accompagner la sécurisation des plateformes Microsoft Azure & Microsoft 365 (Copilot, Azure Cognitive Services, Fabric, Power Platform, Azure ML), depuis la définition des architectures jusqu’au déploiement opérationnel des contrôles de sécurité. Vous participerez à la production de livrables sécurité structurants (dossiers de sécurité, analyses de risques, blueprints, recommandations d’architecture), à la revue de code , et à l’intégration de la sécurité dans les pipelines DevSecOps . La mission s’inscrit dans un environnement Agile , anglophone, avec une forte exigence de qualité, de rigueur et de capacité à interagir avec des équipes techniques et métiers de haut niveau.
CDI

Offre d'emploi
Tech Lead Databricks

KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark

55k-70k €
Paris, France
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
CDI

Offre d'emploi
Responsable Practice IA & DATA (H/F)

K-Lagan
Publiée le
Big Data
Direction de projet
IA Générative

50k-80k €
Paris, France
🚀 K-LAGAN recrute un(e) Responsable Practice IA&DATA (H/F) 🌟 Rejoignez une aventure stratégique et innovante au cœur de la Data & de l’Intelligence Artificielle ! Chez K-LAGAN France , nous recherchons un(e) profil senior et expérimenté pour piloter et développer nos activités Data & IA , dans le cadre de projets à forte valeur ajoutée, au sein d’un environnement en pleine croissance. 📍 Localisation : Paris (Île-de-France) et/ou Niort (Nouvelle-Aquitaine) – mode hybride 🔥 Pourquoi nous rejoindre ? En intégrant K-LAGAN, vous rejoignez une équipe d’experts passionnés par la Data, l’IA et les technologies de pointe. Vous interviendrez sur des projets innovants , en collaboration avec des clients et partenaires de renom , tout en contribuant activement à la structuration et au rayonnement de notre practice Data & IA . 🎯 Votre rôle En tant que Data & IA Project Manager / Responsable Practice IA , vous piloterez des projets complexes Data & IA et accompagnerez la montée en puissance de notre expertise interne. 👨‍💻 Vos principales responsabilités : Piloter des projets Data & IA de bout en bout : cadrage, conception, développement, mise en production. Recueillir et analyser les besoins métiers afin de proposer des solutions adaptées et innovantes. Définir une vision stratégique Data & IA , alignée avec les objectifs business. Superviser et animer des équipes pluridisciplinaires (data engineers, data scientists, MLOps, business analysts). Développer et intégrer des solutions basées sur le Machine Learning, Deep Learning, NLP , etc. Assurer la gouvernance, la qualité et l’éthique des données (RGPD, gestion des risques, biais algorithmiques). Mettre en place et suivre des KPIs pour mesurer la performance et la valeur des projets. Être un(e) ambassadeur(rice) de la Data & de l’IA , accompagner le changement et vulgariser les enjeux auprès des parties prenantes non techniques.
Freelance

Mission freelance
Consultant AI MLOps

RED Commerce - The Global SAP Solutions Provider
Publiée le
AWS Cloud
IA
IA Générative

3 mois
Paris, France
Kajenthi@RED Global – Recherche Consultant IA/ MLOPS – Freelance – 3 mois - Paris intramuros – Hybride RED Global recherche un Consultant IA/ MLOPS, avec une casquette de Product Owner et Project Manager , en Freelance, sur Paris et avec un client final. Votre mission sera d’intervenir dans la delivery, la gestion de projets et la structuration des processus IA et MLOPS Détails du poste: Lieux: Paris – Hybride Type de contrat : Freelance – 3 mois Démarrage : ASAP 1 entretien uniquement Stack technique: AWS, Python et CI/CD Profil recherché : Plus de 5 ans d’experience en tant que Consultant IA/ MLOPS Expérience en Data Science et Machine Learning Expérience poussée sur AWS Cloud data et Python Il faudra: Piloter le projet Collaborer avec les Business Partners IT pour structurer, qualifier et prioriser les nouvelles demandes liées à l’IA Assurer l’intégration des activités et pipelines IA dans les processus et outils CI/CD Langues : Maîtrise du français et anglais (obligatoire) Si vous souhaitez recevoir plus d’information sur le poste ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter par mail au
Freelance

Mission freelance
Développeur MLOps expérimenté

Codezys
Publiée le
Cloud
Kubernetes
MLOps

12 mois
Paris, France
Organisation et contexte Dans une grande entreprise de télécommunications, la Direction des Systèmes d'Information est en charge des projets liés à la donnée, à l'innovation et à l'intelligence artificielle, avec une culture de transformation des usages et des processus. En 2025, plusieurs étapes ont été réalisées dans le domaine de l'intelligence artificielle, notamment la mise en place d'un processus pour identifier des cas d’usage IA, ainsi que des expérimentations consolidées sur une plateforme commune basée sur une infrastructure cloud grand public. À la clé, quelques produits IA ont été déployés en production et accessibles à tous. Pour 2026, l'objectif est d'élargir le portefeuille de produits IA et de faciliter leur intégration dans les processus métier, tout en augmentant la capacité de production grâce à une veille technologique continue et à l'innovation dans le domaine de l'IA. Objectif de la prestation Nous recherchons une prestation avec un profil de spécialiste en développement MLOps expérimenté, capable de travailler sur une infrastructure hybride combinant des solutions on-premises et cloud (GCP). Les objectifs spécifiques de cette mission sont : 1. Accélérer le développement de projets IA : Développer et déployer des solutions basées sur l’IA générative et agentique Mettre en œuvre des modélisations en Deep Learning et Machine Learning 2. Contribuer à l'industrialisation des solutions IA : Mettre en pratique les principes DevOps et MLOps pour assurer la qualité, la scalabilité et la facilité de maintenance des modèles et applications IA Optimiser l’utilisation des capacités des plateformes cloud et de la gestion des charges de travail IA, en garantissant performances et rentabilité 3. Développer des fonctionnalités pour un portail d’IA interne : Créer des outils ou fonctionnalités pour améliorer notre portail interne dédié à l’IA
CDI
Freelance

Offre d'emploi
Consultant Lead Tech Expert Data IA

Signe +
Publiée le
Intelligence artificielle

24 mois
45k-50k €
322-500 €
Paris, France
Missions : intégrer le dispositif existant sur les nouveaux projets IA tout en impactant positivement le "delivery" de la phase de cadrage / EO / MVP / début des développements pour certains projets transformants notamment dans la thématique Marketing en collaboration avec les bon acteurs dans le PP Data et au-delà (PU/PP concernés par les projets, CABD, ADIA...). Contexte: Dans le cadre des projets transformants sous l'angle d'Agent IA supra, le PP Data porte la responsabilité de plusieurs projets transformants et recherche à se renforcer pour piloter/cadrer certains travaux prioritaires avec une forte dominante Marketing. Ce travail nécessite une forte autonomie et une capacité à coordonner des acteurs multiples tout en arrivant à un consensus stratégique et technique. Attendu: le/les candidats devront pouvoir s'appuyer sur son expertise technique du marché (état de l'art de secteur entre secteurs, ROI, axe de développement...) ainsi que celle de son cabinet sur la vertical Data IA : benchmark, bonnes pratiques sur les besoins en Data pour une IA, modèles IA (création/réutilisation, entrainement, évaluation métier, finops et projection, contraintes bancaires et cyber sur l'IA, interconnexions de produits IA majeurs pour structurer les bons travaux à lancer en priorité pour des livraisons fréquentes et cohérentes)... Au cours du T1, un travail spécifique sur le Next Best Offer et les IA MKT cadré / MVP (choix du périmètre métier, performance, activation et utilisations d'autres produits du SI Marketing et IA) avec les briques technologiques à l'état de l'art à utiliser (IA Gen - LLM/SLM, RAG, ML et modèles IA non Gen..), pour les travaux nécessaires à la bonne tenue des jalons temporels de la feuille de route des produits IA de l'équipe en 2026. Compétences humaines : communication, bon relationnel, organisation et rigueur, sens du travail en équipe, autonomie Profil : Consultant Lead Tech Expert Data IA Nombre d'années d'expérience : + de 7 ans Compétences techniques requises : SAP PP Consensus Adversial Robustness Toolbox CA Gen AI Cloud cost management RAG
Freelance

Mission freelance
Data Engineer confirmé - DATA et IA

Calytis
Publiée le
Big Data
Cloud
DevOps

12 mois
450-510 €
Paris, France
La prestation vise à contribuer à la réalisation des initiatives Data et IA 2026 au sein de la direction Informatique et d’un environnement technologique Cloud et Big Data. Elle a pour objectif de mettre à disposition une expertise Data engineering et de produire et d’industrialiser des traitements de données, des alimentations vers le socle Data et des composants Data/IA, tout en facilitant l’exploitation de ces éléments par les équipes consommatrices de données. La prestation s’inscrit également dans un cadre de collaboration avec les équipes internes Data science. sur des usages analytiques et IA, afin d’assurer la bonne compréhension, formalisation et couverture des besoins Data liés aux cas d’usage. La prestation consiste à : a. Réalisation et automatisation des flux de données - Conception et développement de flux d’alimentation de données vers les environnements Data et Innovation. - Mise en oeuvre de pipelines Cloud automatisés (Snowflake, Python, PySpark, services AWS tels que CloudFormation, Lambda, EMR, S3, EC2, Step Functions…). - Intégration de données issues de sources multiples, structurées ou non structurées. b. Développement de produits et composants Data/IA -Conception et réalisation de traitements, applications ou composants Data/IA. - Participation à l’industrialisation de modèles IA/ML et IA générative. c. Structuration, qualité et gouvernance des données - Normalisation, nettoyage, qualification et validation des données. - Documentation des structures de données, référentiels et règles de gestion. - Contribution à la cartographie et au référencement des données. d. Formalisation et clarification des besoins Data - Contribution à la formalisation des besoins Data exprimés par les équipes utilisatrices (dont les équipes analytiques). - Organisation et animation des ateliers nécessaires à cette clarification. e. Conception et intégration Cloud/DevOps - Mise en oeuvre et automatisation des déploiements via Azure DevOps. - Participation aux architectures Cloud Data (AWS + Snowflake). - Intégration de traitements ETL/ELT selon les standards techniques Livrables : Pipelines et flux d’alimentation opérationnels, automatisés et documentés. - Composants ou produits Data/IA prêts à l’usage. - Cartographie et documentation des données intégrées (référentiels, dictionnaires, règles). - Rapports de contrôle qualité, incluant duplications, cohérence, fraîcheur, conformité RGPD. - Documentation technique et architecture (Cloud, DevOps, Data). - Supports d’ateliers de clarification des besoins Data. - Datalake alimenté et dimensionné, avec données validées.
Freelance

Mission freelance
Data Engineer senior - DATA et IA

Calytis
Publiée le
AWS Cloud
CI/CD
MLOps

12 mois
500-560 €
Paris, France
La prestation vise à contribuer aux initiatives Data et IA 2026 au sein de la direction informatique, dans le pôle socle, référentiels et Data Intelligence. L’objectif est de mettre à disposition une expertise ML/Data engineering permettant de concevoir, industrialiser etn opérer des solutions Data/IA/IA gen sur une plateforme cloud, incluant l’ingestion, le traitement, la gouvernance et la mise à disposition des données. La prestation s’inscrit également dans un cadre de fiabiliser l’usage MLOps, d’accompagner la fabrication de produits Data IA, en collaboration avec les équipes internes Data science. La prestation consiste à : - Concevoir, développer et industrialiser des pipelines de données en utilisant les services appropriés du cloud AWS (ex. CloudFormation, Lambda, EMR, S3, EC2, Step Functions, services IA). - Assurer la gouvernance MLOps et AWS Sagemaker : administration, automatisation, gouvernance, monitoring, industrialisation des modèles. - Réaliser des traitements analytiques et des travaux de transformation sur Snowflake et via des chaînes CI/CD sous Azure DevOps. - Produire des composants Data/IA en s’appuyant sur des langages adaptés (ex. Python, PySpark) et sur des mécanismes ETL/ELT. - Concevoir et exécuter les phases de cadrage, architecture, réalisation, test, intégration et mise en service des traitements. - Assurer l’alimentation des environnements Data/IA nécessaires à la production de produits analytiques ou applicatifs. - Faciliter la formalisation des besoins techniques liés aux cas d’usage Data/IA en interaction avec les équipes internes, en vue d'accélérer leur mise en oeuvre. Livrables : - Pipelines AWS opérationnels, documentés et intégrés dans les chaînes d’industrialisation. - Environnements MLOps Sagemaker industrialisés, incluant scripts, configurations, workflows et procédures. - Artefacts de traitement Snowflake (requêtes, tables, vues, procédures) documentés et maintenus. - Packages ou modules Python/PySpark prêts à l’usage et testés. - Schémas ETL/ELT et documentation associée. - Dossiers de cadrage, dossiers d’architecture, dossiers de tests, dossiers de mise en production. - Cartographie des flux, sources, consommations et dépendances. - Guides d’exploitation, procédures opératoires, dashboards de supervision et de qualité de la donnée. Indicateurs de performances : - Taux de succès et stabilité des pipelines AWS. - Délais de mise à disposition des données et des modèles. - Qualité, fraîcheur et complétude des données exposées. - Taux de réussite des déploiements via chaînes CI/CD. - Niveau de conformité des modèles et pipelines MLOps (traçabilité, auditabilité, gouvernance). - Respect des échéances et des engagements définis au démarrage de chaque lot de travail.
Freelance

Mission freelance
Référent technique Dataiku / Braincube (H/F)

Insitoo Freelances
Publiée le
Architecture
AWS Cloud
Dataiku

2 ans
550-670 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Référent technique Dataiku / Braincube (H/F) à Paris, France. Contexte : Dans le cadre du déploiement et de l’exploitation des solutions Dataiku et Braincube pour notre client, nous recherchons un consultant senior capable d’intervenir en tant que référent technique et architectural au sein de la Data Factory. Son rôle sera d’assurer la performance, la qualité de service et la bonne exploitation des plateformes data dans un environnement hybride AWS / On Premise. Les missions attendues par le Référent technique Dataiku / Braincube (H/F) : • Maintien des standards, suivi des usages, conformité licences • Gestion des incidents, demandes, changements • Pilotage performance, optimisation, définition de SLAs & KPIs • Construction et suivi de la roadmap technologique • Amélioration continue & gestion du plan de charge • Sécurité, résilience et gestion de l’obsolescence • Interface avec les équipes DSIC et coordination France / Inde Livrables attendus : • Offre de service (ServiceNow) • Météo du service & reporting • Guides de bonnes pratiques Dataiku / Braincube • Supports de formation & onboarding • Cartographie des flux et modèles data • Business model du service Environnement technique : • Dataiku (Design Node, Automation Node, API Node, Deployer Node) – Cloud AWS & On Premise C3 • Écosystème data interfacé : EKS, Snowflake, stockage, ingestion, restitution • Plateforme Braincube hébergée sur AWS – EKS, opérée par l’éditeur • Environnement de dev standardisé, documentation centralisée et outils collaboratifs (Teams, Backlog…) Compétences attendues : • Expertise AWS (S3, EKS, EC2…) • Maîtrise Dataiku et connaissance des outils data & ML Ops • Compréhension architecture SI & data, gouvernance, sécurité (RBAC, chiffrement, RGPD) • Aptitude à collaborer avec les équipes France / Inde • Excellente capacité de documentation et de vulgarisation • Capacité à construire un business model de service • Minimum 8 ans d’expérience Détails logistiques : • Télétravail : 2J par semaine • Localisation : Paris / Malakoff - avec ponctuellement des déplacements à Châteaufort / Magny les Hameaux
Freelance

Mission freelance
Cyberdefense Splunk Expert

Groupe Aptenia
Publiée le
Cortex XSOAR
Développement
Python

12 mois
400-610 €
Paris, France
Administrer les applications et gérer les accès utilisateurs au sein de la plateforme Splunk. Assurer la maintenance régulière et garantir la stabilité de la plateforme. Concevoir et produire des rapports et des tableaux de bord pour répondre aux besoins opérationnels et de sécurité. Gérer les processus d’ingestion de données et superviser l’intégration des sources de données et des équipements de journalisation dans Splunk. Garantir l’exactitude, la cohérence et la qualité des données ingérées. Rétablir la collecte des logs en cas de perte de données ou d’interruption. Communiquer avec les équipes internes et les clients externes, principalement en français et en anglais. Contribuer à l’extension et à l’évolution de la couverture de supervision et de détection. Participer aux efforts d’automatisation des workflows d’intégration des données et de contrôle qualité. Rédiger la documentation technique et les guides utilisateurs pour un usage interne et externe. Participer à une rotation d’astreinte partagée (équipe de 6 personnes) pour Splunk et les outils associés. Aider aux projets de migration et de transformation liés à Splunk ou aux systèmes de collecte associés. Développer et déployer des algorithmes de machine learning afin d’améliorer les capacités d’analyse et de détection. Contribuer à la création de règles de détection cybersécurité et à l’implémentation de cas d’usage. Proposer en continu des améliorations sur les outils, les procédures et la gestion des incidents afin de renforcer la détection et la remédiation des menaces. Construire des tableaux de bord et définir des métriques et KPI de sécurité. Participer aux communautés internes de sécurité et contribuer au partage de connaissances entre équipes.
Freelance

Mission freelance
QA & Automation Engineer Junior

Gentis Recruitment SAS
Publiée le
.NET
Angular
C#

6 mois
Paris, France
1. Contexte général Dans un contexte de transformation digitale et de modernisation de son système d’information, la GBU S&EM poursuit le déploiement de la plateforme Orchestrade , progiciel front-to-back de trading et de gestion des risques, développé en partenariat étroit avec l’éditeur. Afin d’accompagner un rythme soutenu de livraisons applicatives , un renforcement des équipes est nécessaire pour garantir la qualité, la fiabilité et la conformité de la chaîne applicative autour d’Orchestrade. 2. Objet de l’appel d’offres Le présent appel d’offres vise à sélectionner un(e) QA & Automation Engineer Junior capable d’intervenir sur les activités d’assurance qualité, d’automatisation des tests et d’amélioration continue, dans un environnement applicatif complexe intégrant des traitements batch et des pipelines CI/CD. 3. Périmètre de la mission3.1 Assurance qualité Le consultant interviendra sur les activités suivantes : Analyse des spécifications fonctionnelles et techniques Rédaction de cas de tests fonctionnels et techniques Exécution de campagnes de tests (fonctionnels, intégration, non-régression) Identification, qualification et documentation des anomalies Vérification de la conformité applicative vis-à-vis des exigences métiers et réglementaires Participation aux phases de recette applicative 3.2 Automatisation & scripting Développement et maintenance de scripts de tests automatisés Contribution à l’évolution des frameworks de tests existants Automatisation des tests batch et applicatifs Intégration des tests automatisés dans les chaînes CI/CD existantes 3.3 Usage de l’IA générative appliquée à la QA Réalisation de POCs rapides exploitant des outils d’IA générative Aide à la génération automatique de cas de tests Assistance à l’analyse et à la qualification des anomalies Optimisation de la couverture de tests Contribution aux initiatives d’amélioration continue autour du test intelligent 4. Environnement techniqueLangages & développement Python (scripting, automatisation, manipulation de données de test) C# / .NET (tests d’applications backend) Notions Front-end : HTML, CSS, JavaScript (visualisation, dashboards simples) Automatisation & intégration continue Outils de tests UI et/ou API Pipelines CI/CD (Git, Jenkins, GitLab CI ou équivalent) Ordonnancement & batch Automic ou outils équivalents Compréhension des traitements batch, flux applicatifs et dépendances IA & data (niveau notionnel) Intérêt marqué pour l’IA générative Notions de machine learning, NLP ou outils IA appliqués à la QA 5. Profil recherché Diplôme d’ingénieur en informatique, idéalement avec une spécialisation IA ou data Première expérience significative en : QA automatisation de tests support technico-fonctionnel (alternance acceptée) Capacité à évoluer dans des environnements applicatifs complexes Autonomie, adaptabilité et capacité à travailler sous contrainte de delivery
CDI
Freelance

Offre d'emploi
Software Engineer Python – Azure IA

Craftman data
Publiée le
AI
Azure AI
Azure AI Foundry

3 mois
Paris, France
Contexte de la mission Dans le cadre du développement de solutions d’Intelligence Artificielle sur Microsoft Azure, nous recherchons un Software Engineer Python avec une expérience de 3 a 5 ans disposant d’une première expérience (1 à 2 ans) sur des projets IA, idéalement en environnement Azure. Le collaborateur interviendra au sein d’une équipe cloud & data pour développer, intégrer et maintenir des solutions basées sur Azure OpenAI, Azure AI Services et Azure AI Search , dans un environnement structuré (Landing Zone, sécurité, CI/CD). La mission couvre principalement le développement, l’intégration et l’industrialisation technique de composants IA. Objectifs de la mission : • Développer des applications Python intégrant des services Azure IA • Contribuer à la mise en place de solutions RAG et LLM • Participer à l’industrialisation et à la mise en production sur Azure • Assurer la qualité, la performance et la maintenabilité du code • Monter progressivement en expertise sur l’écosystème Azure IA Responsabilités principales : 🔹 Développement Python & Intégration IA • Développer des APIs et services backend en Python (FastAPI, Flask ou équivalent) • Intégrer Azure OpenAI Service dans des applications métiers • Implémenter des pipelines de traitement de données (préparation, chunking, embeddings) • Participer à la mise en place d’architectures RAG simples • Intégrer Azure AI Search (vector search, indexation) • Manipuler des bases de données (SQL, NoSQL) 🔹 Industrialisation & Cloud : • Déployer des applications sur Azure (App Service, Container Apps, Functions) • Participer à la mise en place de pipelines CI/CD (Azure DevOps ou GitHub Actions) • Contribuer à la containerisation des applications (Docker) • Appliquer les bonnes pratiques de sécurité (Managed Identity, RBAC, gestion des secrets) • Participer aux déploiements multi-environnements (dev / test / prod) Qualité & Bonnes pratiques : • Rédiger du code propre, documenté et testé • Mettre en place des tests unitaires et d’intégration • Participer aux revues de code • Contribuer au monitoring et logging des applications • Documenter les développements techniques 🧩 Compétences techniques requises : 💻 Développement • Python (maîtrise opérationnelle) • Framework API (FastAPI, Flask ou Django) • Manipulation d’APIs REST • Git ☁️ Azure & IA • Connaissance de Azure OpenAI Service • Notions d’architectures LLM et RAG • Azure AI Search (notions vector search appréciées) • Azure Storage (Blob, Files) • Azure App Service / Functions / Container Apps • Bases en sécurité Azure (Entra ID, RBAC) 🔄 DevOps • Docker • CI/CD (Azure DevOps ou GitHub Actions) • Notions d’Infrastructure as Code (Terraform apprécié mais non obligatoire) 🤝 Soft skills & posture attendue • Esprit d’équipe et capacité à collaborer avec les équipes data et cloud • Rigueur technique et sens de la qualité • Curiosité technologique (veille IA & cloud) • Autonomie progressive • Capacité à comprendre un besoin métier et à le traduire techniquement 👤 Profil recherché • 3 à 5 ans d’expérience en développement Python • Première expérience sur un projet IA (chatbot, RAG, NLP, ML, etc.) • Connaissance pratique d’Azure appréciée • Diplôme Bac+5 (école d’ingénieur ou université) ou équivalent • Forte appétence pour l’IA et le cloud
Freelance
CDI

Offre d'emploi
Business Analyst

VISIAN
Publiée le
Business Analyst
Large Language Model (LLM)
Natural Language Processing (NLP)

1 an
40k-45k €
400-610 €
Paris, France
Descriptif du poste Contexte et mission Vous rejoindrez un programme d'IA de haut impact visant à construire un système agentique pour automatiser les workflows d'email dans le secteur financier. Ce programme transformera les processus manuels en workflows intelligents alimentés par l'IA générative, avec un objectif de réduction de 60%+ de l'effort manuel. Le système agentique comprendra : 1. Conversation Service : Conversion d'emails en données structurées, extraction d'entités et d'intentions 2. Prioritizer : Scoring basé sur le risque et gestion des SLA 3. Drafter : Réponses GenAI avec garde-fous de conformité 4. Summarizer : Distillation des threads et pistes d'audit Stack technologique : CrewAI, intégrations MCP/A2A/ACP, Python, SQL, APIs. Profil recherché Expérience requise 8+ ans en tant qu'analyste métier dans les services financiers (CIB, Opérations ou Risque de préférence) 3+ ans sur des projets IA/ML (ex. NLP, RPA, systèmes agentiques) avec focus sur l'automatisation des processus Expérience avec les workflows d'email, les opérations de trading ou le service client en banque Compétences obligatoires PhD ou équivalent 10+ ans en Data Science, 5+ ans en NLP/GenAI Expérience CrewAI Google ADK Connaissance MCP/A2A/ACP Déploiement d'IA en production Python, SQL, APIs Expérience dans l'industrie financière Publications ou brevets Anglais courant Compétences appréciées Expérience en finance Connaissance GDPR/MiFID Frameworks d'évaluation Contributions open-source Français et anglais courants
CDI
Freelance

Offre d'emploi
PhD IA & Data

Inventiv IT
Publiée le
Data science
Deep Learning
IA

1 an
39k-50k €
300-500 €
Paris, France
Au sein de la Data & IA Fabric d'INVENTIV IT, nous recherchons des PhD IA & Data (+3 ans d'expérience minimum) afin de travailler sur la mise en place d'une IA Souveraine et des projets internationaux connexes autours de la Data & IA Mise en Place d'une IA souveraine Construction et évaluation de modèles de Machine Learning. Utilisation de frameworks de Deep Learning (TensorFlow, PyTorch, Scikit-Learn). Préparation de données, ingénierie des caractéristiques ( feature engineering ) et test de modèles. Développement d'applications IA à petite échelle et de preuves de concept (PoC). Mise en place de LLM Souverain Solutions & Agentique IA Data Market Place Travail au sein d'équipes pluridisciplinaires et respect des meilleures pratiques d'ingénierie. Vous êtes quelqu'un de passionné par l'IA & la Data. Vous êtes en veille constante sur les nouvelles technologies et solutions. Vous pratiquez de manière opérationnelle depuis + de 3 ans. Proactif, rigoureux, désireux d'explorer de nouvelles techniques d'IA et déterminé à évoluer vers un poste d'ingénieur pleinement autonome capable de gérer des projets d'IA de plus grande envergure. Vous souhaitez devenir les meilleurs et être encadré par des expert séniors avec des expériences à l'international Alors rejoignez-nous ! Francophone et Anglophone obligatoire Date de démarrage : Janvier/Février 2026 Localisation : France Rythme : ouvert au Full TT Chez INVENTIV IT, nous faisons de l'IA & Data un levier business accessible, conforme et intégrer dans les processus métiers

Les métiers et les missions en freelance pour Machine Learning

Data scientist

Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.

Data analyst

Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.

Développeur·euse IA/Machine Learning

Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.

Ingénieur·e R&D

L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.

52 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous