Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 681 résultats.
Freelance

Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Publiée le
Machine Learning
Python

6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Freelance

Mission freelance
Dev java angular ayant travaillé sur l’intelligence Artificielle générative solide 440 e/J

Publiée le
Angular
J2EE / Java EE

2 ans
400-440 €
Île-de-France, France
Télétravail partiel
Dev java angular ayant travaillé sur l’Intelligence Artificielle générative solide 440 e/J Nous recherchons un consultant avec la double compétence Java Angular et Intelligence Artificielle générative Solide Bonne communication , bonne expression ecrite et orale , bonne capacité d'adaptation. Mission en région Parisienne . JAVA ANGULAR ET Intelligence Artificielle Générative solide Bonne maitrise de JAVA Angular, bonne maitrise de l'intelligence Artificielle générative solide Mission asap , budget de 440e par jours
Freelance

Mission freelance
Machine Learning Engineering

Publiée le
Google Cloud Platform (GCP)
MLOps
Python

3 ans
400-580 €
Paris, France
Télétravail partiel
Développer et optimiser des modèles de recommandation Concevoir des pipelines ML robustes et scalables Déployer des modèles en production (API) Participer à l’A/B testing et à l’évaluation continue des performances Contribuer à l’évolution de l’architecture ML dans un environnement moderne (GCP) Profil recherché: Solide expérience en Machine Learning Engineering Excellente maîtrise de Python, GCP et des frameworks ML Expérience en MLOps, CI/CD, monitoring Capacité à travailler sur des volumes de données conséquents Rigueur, sens de l’analyse et goût pour l’innovation
CDI

Offre d'emploi
Data engineer appétence machine learning (H/F)

Publiée le

40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez sur un projet en tant que Data engineer. Dans le cadre d'un projet de transformation Data ambitieux, nous recherchons un Ingénieur Data pour concevoir et structurer l'architecture d'un Data Warehouse et poser les bases des futurs projets d'intelligence artificielle. Vous interviendrez sur l'ensemble de la chaîne de valeur de la donnée : collecte, structuration, gouvernance, qualité et préparation aux usages prédictifs. Vos missions : 1. Architecture & Infrastructure Data Définir et mettre en œuvre l'architecture du Data Warehouse (on-premise). Concevoir et automatiser les pipelines ETL/ELT à partir des systèmes existants (ERP, TMS, WMS…). Garantir la qualité, la traçabilité et la sécurité des données. Participer à la mise en place d'un catalogue de données pour améliorer la gouvernance. 2. Préparation et Structuration pour l'IA Concevoir des modèles de données adaptés aux futurs cas d'usage IA et prédictifs. Structurer et enrichir les datasets nécessaires aux analyses (prévision ETA, détection d'anomalies…). Collaborer avec les équipes de développement ERP pour intégrer les flux métiers. 3. Collaboration & Culture Data Travailler en étroite collaboration avec les équipes IT, métiers, développement logiciel et direction. Sensibiliser les équipes à la culture data-driven et à l'utilisation des outils analytiques. Être un moteur dans la diffusion des bonnes pratiques Data au sein de l'entreprise. 4. Développement Machine Learning (à moyen terme) Participer à la création de premiers modèles de Machine Learning en lien avec les métiers. Contribuer à leur industrialisation (API, conteneurisation, intégration à l'ERP). Compétences : Excellente maîtrise de Python et SQL. Solide expérience en construction de pipelines de données (ETL/ELT). Connaissance d'un ou plusieurs outils d'orchestration : Airflow, dbt, Talend… Bonnes bases en bases de données relationnelles et cloud : Snowflake, BigQuery, Synapse, PostgreSQL… Compréhension des principes du Machine Learning (pandas, scikit-learn). À l'aise dans un environnement DevOps (Git, CI/CD, Docker, APIs REST).
Freelance
CDI

Offre d'emploi
INGENIEUR MACHINE Learning Engineering

Publiée le
MySQL
Python

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Créer les premiers cas d’usage en lien avec la personnalisation de l’expérience utilisateur basés sur de la recommandation utilisateur 2. Déployer ce projet et AB tester en production 3. Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la prestation consistera à : • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
CDI

Offre d'emploi
Data Engineer Look ML

Publiée le

50k-70k €
Ivry-sur-Seine, Île-de-France
Télétravail partiel
En tant que BI engineer Looker/LookML, vous serez en charge de concevoir, développer et d'optimiser des solutions de reporting adaptées aux besoins de nos différents métiers. Votre expertise avancée en LookML/Looker, vos connaissances et compétences sur d'autres outils de visualisation telles que MicroStrategy et/ou QlikView, combinée à une solide maîtrise de SQL, sera un atout essentiel pour réussir dans ce rôle. Ø Missions principales : · Concevoir, développer et maintenir les modèles de données et couche sémantique dans LookML. · Concevoir et développer des tableaux de bord et rapports à l'aide des outils Looker, MicroStrategy et QlikView. · Intégrer différentes sources de données. · Collaborer avec les équipes métiers pour comprendre leurs besoins et les traduire en solutions de reporting performantes. · Assurer la maintenance, la résilience et l'évolution des solutions existantes. · Effectuer les recettes techniques et fonctionnelles des traitements développés. · Mettre en place des mécanismes de monitoring pour assurer le bon fonctionnement et la fiabilité des solutions. · Participer à l'optimisation des modèles de données et à la création d'infrastructures de reporting. · Garantir la qualité, la fiabilité et la précision des données présentées. · Rédiger les livrables et la documentation technique associée pour faciliter la pérennité et la transmission des connaissances. · Participer à la gouvernance des couches sémantiques et des reportings. · Former les utilisateurs finaux et leur fournir un support technique lorsque nécessaire.
Freelance

Mission freelance
Ingénieur(e) IA / ML Ops senior

Publiée le
.NET Framework

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 6 ans et plus Métiers Fonctions : Etudes & Développement, Ingénieur Spécialités technologiques : Versionning, Gestion de configuration ML, Monitoring, RGPD, Automatisation des test Compétences Technologies et Outils GitHub CI/CD GIT MISSIONS En tant qu’ingénieur(e) IA / ML Ops senior, vos principales missions sont de : - Gérer le portefeuille de cas d’usage d’IA (ML/deeplearning, IA Gen, agentique) pour un ou plusieurs départements. - Être le référent IA auprès de vos différents interlocuteurs : chef de projets, développeurs, architectes, métiers, partenaires internes et externes. - Accompagner les directions dans le cadrage de leurs cas d’usage et traduire les besoins métiers en spécifications techniques. - Contribuer à la modélisation de votre portefeuille de cas d’usage : - S’assurer que les modèles développés respectent les standards de performance, robustesse, explicabilité et conformité. Garantir que les modèles / cas d’usage développés soient parfaitement industrialisables. - Mettre en place les bonnes pratiques, méthodes de Feature Engineering et de validation des données. - Challenger les approches proposées par les Data Scientists. - Piloter l’industrialisation et le déploiement des modèles IA - Définir et appliquer le cadre ML Ops du groupe : reproductibilité, versioning, automatisation des tests, gouvernance des modèles - Concevoir des architectures IA modulaires, en évaluant en amont ce qui a déjà été développé et en favorisant la mutualisation plutôt que le redéveloppement systématique. Travailler en collaboration étroite avec les autres directions IA pour harmoniser les choix technologiques et accélérer l’industrialisation. - Construire et implémenter les pipelines, CI/CD, monitoring. - S’assurer de la conformité avec les normes internes techniques et réglementaires (cadre normatif / IA act / RGPD). - Garantir la qualité et la conformité - Structurer et diffuser les bonnes pratiques : organisation du code / worflow Git, qualité et tests, ML Ops et reproductibilité (tracking, versioning, CI/CD, orchestration, infra as code, …), sécurité, gouvernance et réutilisabilité, « definition of done », règles d’usage de GitHub Copilot - Auditer et valider les modèles / cas d’usage développés. - Garantir la qualité et la conformité des livrables avant mise en production. - Etablir la traçabilité : documentation, métadonnées, suivi des performances. - Être le point de contact technique privilégié pour les instances de validation. - Encadrer et accompagner les juniors et les collaborateurs dans le domaine de l’IA. - Organiser la montée en compétence progressive et objectivée des juniors. - Jouer un rôle de pédagogue vis-à-vis des métiers pour vulgariser les concepts, les choix technologiques et assurer leur adhésion. - Assurer une veille technologique active sur les outils, frameworks, et paradigmes IA. Proposer de nouvelles solutions / architectures adaptées aux besoins métiers. - Usage Interne / Internal Use - Anticiper les évolutions des réglementations et intégrer les enjeux de responsabilité de l’IA.
CDI

Offre d'emploi
 Architecte / Tech Lead IA

Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)

40k-65k €
Paris, France
Télétravail partiel
Redlab cherche un Leader technique de l’Usine IA de son client Il définit l’architecture des solutions IA/ML/LLM, organise les équipes techniques, garantit sécurité, performance et conformité (RGPD, AI Act). Missions clés Piloter les équipes techniques IA (développeurs, data scientists, ingénieurs). Concevoir des architectures scalables (microservices, event-driven). Encadrer l’industrialisation IA/ML/LLM (MLOps, GPU, cloud). Optimiser les processus métiers (AS-IS / TO-BE, BPMN). Coordonner les parties prenantes (métier, DSI, RSSI).
Freelance

Mission freelance
Expert MlOps Data IA / LLM(Secteur Bancaire)

Publiée le
API Platform
Azure Data Factory
Azure Kubernetes Service (AKS)

12 mois
550-600 €
Paris, France
Le Lab Data connaît une forte accélération et un passage à l’échelle. Les équipes construisent et opèrent un Data Mesh , un Datalake , ainsi qu’une plateforme complète permettant de rendre accessibles les données, les analytics et les produits IA. Le périmètre inclut : Conception du magasin Workspace pour accès aux données Connectivité avancée du Data Lab Mise en production de nombreux agents et modèles (≈60) Montée en puissance sur l’ observabilité , le Go-to-Market , l’orchestration, et l’optimisation de la vitesse de livraison L’objectif : accélérer , scaler , et professionnaliser la chaîne de valeur Data & IA pour soutenir une croissance forte du nombre d’utilisateurs. Mission principale Rejoindre le Lab Data pour : Accélérer l’évolution du Data Mesh et du Datalake Renforcer l’observabilité, la qualité, et la fiabilité des pipelines Structurer et opérer la plateforme agentique (LLM, agents, graph, orchestration) Améliorer la vitesse et la maturité en production (MLOps & LLMOps) Accompagner l’onboarding rapide des nouveaux utilisateurs et experts Contribuer au Go-to-Market et à la montée en maturité du produit Participer au développement interne des outils d’automatisation et d’orchestration Responsabilités clésData Engineering & Analytics Développer et opérer des pipelines Spark / SQL performants Contribuer au Data Mesh, Datalake, et aux connecteurs Workspace Gestion de la consommation via API, Spark, Elastic Search Déploiement et optimisation Power BI & DataViz avancée Participer à la construction du catalogue de données / agents Orchestration & Infrastructure Concevoir et opérer les workflows sur Kubernetes Infrastructure as Code (Terraform – un plus) Observabilité appliquée au Data & IA (logs, metrics, traces) Contribution à la refonte de n8n interne Gestion DAG & orchestrateurs internes / agentiques ML Ops & LLM Ops Gestion du cycle de vie ML & LLM Mise en production d’agents LLM (60+ agents en prod) Context engineering : gestion dynamique du contexte partagé, hiérarchie, rationalisation Deep Search, Knowledge Graph, Neo Forging Monitoring, optimisation et sécurité des modèles Plateforme agentique : supervision, versioning, fiabilité Développement Applicatif API robustes (Python / FastAPI) Application front (React – un plus, avec sensibilité design) Automatisation et intégration dans la plateforme
Freelance

Mission freelance
Lead MLOps Python - Spécialiste IA/RAG

Publiée le
IA
MLOps
Python

3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Freelance

Mission freelance
Expert Intelligence Artificielle

Publiée le
Business Intelligence

12 mois
560-590 €
Poitiers, Nouvelle-Aquitaine
Télétravail partiel
Pour le compte d’un acteur majeur du secteur des mutuelles, nous recherchons un Expert en Intelligence Artificielle afin d’accompagner la direction dans la mise en œuvre de projets innovants autour de la data et de l’automatisation. Le consultant interviendra sur la définition de la stratégie IA, l’identification des cas d’usage pertinents (relation adhérents, détection de fraudes, optimisation des processus internes), ainsi que sur la mise en place d’outils et modèles prédictifs. Il participera également à l’acculturation des équipes métiers et IT à l’usage de l’IA et contribuera à la gouvernance des données et à la conformité éthique et réglementaire des projets.
Freelance

Mission freelance
Responsable Strategie Data / IA senior

Publiée le
IA

1 an
400-600 €
Île-de-France, France
Localisation : Hauts-de-Seine Expérience : 7 an et plus Mission : 1 an renouvelable Spécialités technologiques : Intelligence artificielle Big Data Description et livrables de la prestation : Contexte : Un grand groupe français souhaite accélérer un programme transverse Data & IA visant à mieux coordonner plusieurs entités internes expertes (data, IA, plateformes, industrialisation) et à renforcer la cohérence globale de la filière. Des actions ont déjà été engagées (gouvernance, premiers chantiers, animation du collectif), et le groupe veut désormais structurer davantage et passer à l’échelle : clarifier le positionnement, harmoniser les pratiques, renforcer la capacité à travailler “d’une seule voix”, et améliorer l’efficacité de bout en bout (de l’offre au déploiement). Objectifs de l’appel d’offre : - Renforcer l’alignement entre entités contributrices (offres, priorités, modes opératoires, gouvernance). - Accélérer les synergies opérationnelles et business (offres conjointes, réponses coordonnées, passage à des engagements plus ambitieux). -Définir/mettre à jour une roadmap 2025–2026 et sécuriser l’exécution via une gouvernance robuste. -Structurer une stratégie marketing & communication (messages, visibilité, preuves, supports), incluant une réflexion sur une architecture de marque type “marque ombrelle” + déclinaisons, sans logique de fusion. -Renforcer l’animation “collectif” et la capitalisation (veille, retours d’expérience, publications, démarche à impact / IA responsable). Rôle attendu du prestataire : -Le prestataire intervient comme pilote et facilitateur du programme, à l’interface entre direction, sponsors, et entités contributrices : -Pilotage / PMO de programme : cadrage, planification, suivi des chantiers, animation des rituels, préparation/animation des comités, gestion des actions et décisions. -Structuration de l’offre : formalisation d’une offre de service cohérente, lisible et réplicable, articulation des contributions des différentes entités. -Activation des synergies : mise en place de mécanismes concrets (process, coordination, “passage de relais”, construction d’offres croisées, consolidation des retours terrain). -Marketing & communication opérationnels : plan de communication, contenus, kits de présentation, éléments de langage, valorisation des réalisations et cas d’usage. -Rayonnement & animation de l’expertise : cadrer une dynamique de type “lab/collectif” (veille, publications, événements internes/externes, démarche à impact). Livrables attendus : -Roadmap 2025–2026 (priorités, jalons, chantiers, dépendances) + cadre de pilotage associé. -Dispositif de gouvernance : comitologie, rituels, responsabilités, tableaux de suivi et reporting. -Plan marketing & communication : objectifs, messages, cibles, canaux, calendrier, contenus. -Kit de communication & kit commercial : pitchs, trames, supports, éléments de langage, preuves, cas d’usage / retours d’expérience. -Reporting périodique (ex. trimestriel) : avancement, synergies réalisées, points de blocage, recommandations. -Synthèse annuelle : bilan, impacts, perspectives et axes de développement. Expertise souhaitée : - Expérience avérée en accompagnement de programmes de transformation Data & IA - Compétences en marketing stratégique, gouvernance et pilotage d’écosystèmes complexes - Capacité à travailler en contexte multi-entités et à animer la coopération interfiliales - Qualité méthodologique et lisibilité de la proposition - Dynamique, leadership - Expérience en grands groupes Mobilité : Mission Full Time hybride : 2 à 3 jours sur site
Freelance
CDI

Offre d'emploi
Lead ML Engineering (26)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-800 €
Île-de-France, France
Télétravail partiel
Lead ML EngineeringContexte de la mission Création d'une équipe dédiée à la personnalisation (PO, DS, Lead MLE, MLE) pour lancer des cas de recommandation et de ML en production. Stack GCP incluant Python, Vertex AI, BigQuery, Cloud Run, Airflow/Cloud Composer (et autres services GCP). Objectifs : créer les premiers use cases, déployer & A/B tester en prod, monitorer la performance. Activités attendues Définir l'architecture & la feuille de route technique (performance, scalabilité, sécurité). Coacher l'équipe pour garantir la qualité du code/modèles. Concevoir, construire & maintenir des pipelines ML de la collecte à l'exposition via API REST. Organiser le stockage ; assurer scalabilité, sécurité, stabilité des environnements. Mettre en place des infrastructures scalables et les workflows CI/CD ; industrialiser les modèles avec les DS. Collaborer avec Data Engineers & équipes techniques ; documentation & veille ; participation au cadrage/planification/réalisation.
Freelance
CDI

Offre d'emploi
Consultant MOA Lutte contre la Fraude / Machine Learning (H/F)

Publiée le
Agile Scrum
Gestion de projet
Machine Learning

24 mois
Paris, France
Télétravail partiel
Nous recherchons un consultant spécialisé dans la Lutte contre la Fraude (H/F) pour accompagner notre client, un établissement bancaire basé à Paris. Contexte de la mission : Il s’agit d’accompagner l’équipe de notre client dans la mise en place d’un nouvel outil de lutte contre la fraude et d’un cadrage sur la mise en place d’une machine learning autour de la Fraude. Vos missions principales : · Analyse des besoins : Recueil et formalisation des exigences métiers et techniques. · Ateliers collaboratifs : Organisation de sessions de travail avec les architectes et parties prenantes pour définir la solution cible et mettre en oeuvre la solution cible. · Consolidation des priorités : Alignement des priorités métiers avec les objectifs stratégiques de la DSI. · Rédaction de documents, élaboration de notes de cadrage, schémas d’architecture, et plans de mise en oeuvre. · Mise en oeuvre de la machine learning et suivi des évolutions via un système de ticketing. · Spécification des paramétrages des outils fraudes. · Réalisation des recettes unitaires. · Gérer la relation éditeur sur l’outil de lutte contre la Fraude. · Planification : Élaboration de plannings détaillés (jalons, dépendances, ressources). · Suivi et reporting : Mise en place de tableaux de bord pour le suivi de l’avancement. · Gestion des risques : Identification et mitigation des risques potentiels. · Communication, organisation de réunions de suivi et préparation des supports pour les comités de pilotage. · Gestion des tickets, Création, suivi et résolution des tickets de déploiement. Validation des livrables, Vérification de la conformité des livrables aux exigences du projet.
CDI
Freelance

Offre d'emploi
Développeur Python/DevOps & Chatbot IA

Publiée le
Chatbot
DevOps
Kubernetes

3 ans
40k-73k €
400-580 €
Île-de-France, France
Prestations demandées Missions DevOps / Backend 1. : API et services principaux Développer l’API centrale permettant l’interfaçage entre le chatbot, les assistants métiers et les services de gestion de fichiers. Implémenter le service de gestion des conversations : historique, anonymisation/suppression, continuité conversationnelle. 2. Gestion des fichiers : Concevoir le traitement et le stockage sécurisés des fichiers utilisateurs (txt, PDF, docx, pptx, xlsx). Intégrer des mécanismes d’analyse et d’enrichissement des fichiers pour l’exploitation dans les assistants. 3. Contexte et personnalisation : Développer un module d’analyse et d’enrichissement du contexte (user/entity) pour optimiser la pertinence des réponses. Gérer les prompts : création de templates, favoris, personnalisation par entité ou collaborateur. 4. Orchestration et assistants : Mettre en place un service d’orchestration multi-assistants (agents spécialisés, fallback, exécution d’actions). Développer un système de gestion des widgets et actions (web search, rendu mermaid, outils interactifs). 5. Monitoring et conformité : Implémenter le feedback utilisateur, la collecte de KPIs et le suivi des délais de réponse. Administrer les mécanismes de contrôle d’accès, garde-fous et politiques d’usage (policy-based). Mettre en œuvre les logs applicatifs, l’audit des actions et les traces conformes aux exigences du Groupe (sécurité, conformité, confidentialité).
Freelance

Mission freelance
Expert DATA IA Sénior (SAS, Powershell, Batch, Shell) minimum de 7 ans d’exp/fa

Publiée le
IA
SAS

12 mois
Paris, France
Télétravail partiel
Expert DATA IA Sénior (SAS, Powershell, Batch, Shell) minimum de 7 ans d’exp/ Expert DATA IA Sénior avec un minimum de 7 ans d’expériences sur des projets similaires. Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Communications, bon relationnel Organisation et rigueur Sens du travail en équipe Autonomie Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Dans le cadre des projets transformants sous l'angle d'Agent IA supra, recherche à se renforcer pour piloter/cadrer certains travaux prioritaires avec un forte dominante Marketing. Ce travail nécessite une forte autonomie et une capacité à coordonner des acteurs multiples tout en arrivant à un consensus stratégique et technique. Le candidat devra pouvoir s'appuyer sur son expertise ainsi que celle de son cabinet sur la vertical Data IA : Benchmark, bonnes pratiques sur les besoins en Data pour une IA, modèles IA (création/réutilisation, entrainement, évaluation métier, finops et projection, contraintes bancaires et cyber sur l'IA, interconnexions de produits IA majeurs pour structurer les bons travaux à lancer en priorité pour des livraisons fréquentes et cohérentes)... Avant fin 2025, l'ensemble du chantier doit être pré-cadré (toutes les réunions organisées et cordonnées ; notes de réunions à envoyer le jour J/J+1 et livrables de cadrage complets à fournir) avec une feuille de route à plusieurs niveaux sur 2026 tout en préparant si besoin en 2025 des travaux nécessaires à la bonne tenue des jalons temporels de 2026. Principaux livrables : Construire la feuille de route du stream Data IA avant fin 2025 pour certains projets transformants notamment dans la thématique Marketing en collaboration avec les bon acteurs. Compétences requises : Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Communications, bon relationnel Organisation et rigueur Sens du travail en équipe Autonomie
1681 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous