Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 124 résultats.
Freelance

Mission freelance
Chef de projet DATA Domaine Banque / Assurance (ML, développement Python, IA générative) - MER

Publiée le
IA Générative
Pilotage
Python

3 mois
400-480 €
Mer, Centre-Val de Loire
Télétravail partiel
Chef de projet DATA pour une mission à MER (près d'Orléans).Data Science (ML, développement Python, IA générative) Domaine Banque / Assurance. Profil : - Spécialiste de la gestion de projets techniques orientés Data, avec un minimum de 3 années d’expérience - Expérience des méthodologies Agile (Kanban, Scrum) en tant que Product Owner - Grande rigueur dans le suivi des actions projet - Expérience de la relation Infogérant / infogéré - Connaissance des sujets Data Science (ML, développement Python, IA générative) - Connaissance du fonctionnement des bases de données (Relationnelles, Cluster, Stockage S3) - Connaissance des infrastructures Cloud, des outils associés aux projets mentionnés ci-dessus, et de Power BI Description du poste : Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il interviendra sur les projets suivants : Projet d'extension des données du SI Décisionnel Ce projet agile vise à faciliter l’accès aux données pour les utilisateurs métier et les clients. Le prestataire jouera le rôle de Product Owner pour le produit « Data » : gestion du Backlog, collaboration étroite avec le Scrum Master, l’équipe de développement du service Modélisation des Données, les équipes IT, et les métiers. Projet de nouvelle stratégie d’alimentation du Datawarehouse Finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique. Autres projets Mise en place de solutions IA, finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique, mise en place d’un SI Décisionnel RH, et d'autres projets à initier en 2026. Mission : Piloter les projets sur les aspects suivants : - Organisationnels : planning, comitologie, suivi budgétaire, suivi de recette - Techniques : cartographie réseau, flux, analyse de risque, etc. - Relationnels : collaboration avec les équipes IT (Architectes, Réseau, RSI, etc.), les métiers, le CISO, etc. - Maitrise des risques : implique une grande rigueur dans le suivi des actions, des plannings et des budgets
Freelance
CDI

Offre d'emploi
Data Scientist

Publiée le
Google Cloud Platform (GCP)
Machine Learning

1 an
40k-45k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'améliorer la personnalisation de l'expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d'un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur une plateforme cloud majeure et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l'orchestration des traitements. La stack inclut aussi d'autres services de la plateforme cloud. Missions de l'équipe Créer les premiers cas d'usage en lien avec la personnalisation de l'expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues En interaction avec les membres de l'équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l'exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l'évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l'équipe
Freelance

Mission freelance
Technico-Fonctionnel / Scientific Data Engineering - Expert DataOps - R&D - 1117

Publiée le

6 mois
500-530 €
Paris, France
Télétravail partiel
Objectifs de la mission : Le Passenger Cognition Lab modélise les comportements des voyageurs afin d’optimiser les services digitaux et l’information voyageur en Île-de-France. Le Lab recherche un Ingénieur de Recherche DataOps capable de concevoir et enrichir une infrastructure de données permettant des études scientifiques sur la cognition des voyageurs. Enjeux et rôle du consultant - Traduire les besoins théoriques des chercheurs en pipelines de données robustes et architectures cloud performantes (AWS). - Garantir l’intégrité scientifique des traitements : gestion des biais statistiques, fiabilité des séries temporelles, reproductibilité. - Concevoir des environnements d’expérimentation Cloud fiables, orientés production de résultats scientifiques. - Documenter et structurer les travaux pour assurer leur pérennité. - Agir comme le bras technique du Lab dans un contexte de recherche. Environnement & contexte : R&D agile manipulant des volumes de données massifs et hétérogènes. Stack : AWS, Python (Scientific Stack), conteneurisation. Interaction clé avec l’IT Groupe pour favoriser le portage et l’exploitation des données dans d’autres projets. Livrable : Instrumentation des données pour la recherche (Scientific Data Engineering) Architecture Cloud pour l'expérimentation (Scientific Ops) Formalisation technique et Support à la valorisation Obligatoire : Thèse de doctorat (Data, ML ou Mathématiques Appliquées) garantissant sa capacité à dialoguer avec des chercheurs, couplée à une expérience opérationnelle forte en Ingénierie logicielle/Cloud. Expériences entre 7 et 9 années.
Freelance
CDI

Offre d'emploi
Expert TECHNIQUE Cyber & DevSecOps – IA / GenAI & Azure (N3)

Publiée le
Azure
Azure AI Foundry
DevSecOps

3 ans
Fontenay-sous-Bois, Île-de-France
Télétravail partiel
Nous recherchons un expert technique cyber & DevSecOps spécialisé IA / GenAI pour renforcer une équipe sécurité déjà structurée (GRC + pilotage en place). Mission orientée mise en œuvre technique , pas du pilotage. 🎯 Votre rôle Intégrer l’équipe sécurité et prendre en charge la sécurisation avancée de la stack Azure IA / GenAI : Azure AI, Cognitive Services, Azure Machine Learning, Azure OpenAI M365, Power Platform, Fabric Intégrations data (Snowflake…) Vous intervenez comme référent technique auprès des devs, data engineers & data scientists. 🔧 Missions techniques Design & déploiement des contrôles de sécurité Azure / IA RBAC, Conditional Access, MFA, PIM Réseau, identité, isolation des environnements Sécurisation des services IA et des données exposées DevSecOps – CI/CD sécurisés Scans, policy-as-code, sécurité IaC (Terraform / Bicep) Configuration avancée des solutions Microsoft Security : Sentinel, Defender for Cloud, Purview Revue de code, pipelines, IaC Mise en place d’automatisations : PowerShell / Python 🧠 Expertise IA / GenAI attendue Capacité à challenger, corriger, sécuriser des implémentations GenAI : prompt injection data/model poisoning fuite de données risques agentiques / escalade via LLM bonnes pratiques de gouvernance et isolation des données 📦 Livrables Blueprints & architectures de sécurité GenAI sur Azure Configurations sécurisées + règles Sentinel / Defender / Purview Analyses de risques & mesures de mitigation Reporting technique : posture, vulnérabilités, remédiations
Freelance

Mission freelance
Data / AI Engineer

Publiée le
Databricks
Git
Python

1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, Data Scientists, équipes Produit), vous interviendrez sur l’ensemble de la chaîne data & IA , de la construction des pipelines jusqu’à la mise en production et au suivi des modèles. Vos principales responsabilités : Concevoir et développer des pipelines data robustes (batch et streaming) Préparer, transformer et structurer les données pour les cas d’usage IA Entraîner, évaluer et industrialiser des modèles de Machine Learning Mettre en place le monitoring des données et des modèles Garantir la qualité, la traçabilité et la fiabilité des traitements Collaborer étroitement avec les Data Scientists et équipes produit 🛠️ Industrialisation & MLOps Mise en place des bonnes pratiques de versioning et CI/CD Industrialisation des pipelines et des modèles Contribution à la documentation technique Amélioration continue des performances et de la maintenabilité Participation aux phases de déploiement et de stabilisation
Freelance

Mission freelance
Senior Data Scientist

Publiée le
ADFS
Analyse financière
Azure

6 mois
550-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre du remplacement d’un consultant senior sortant, tu rejoindras l’équipe Pricing & Revenue Management afin d’assurer la continuité, l’évolution et la fiabilisation des modèles algorithmiques stratégiques. Ton rôle sera clé pour concevoir, développer et optimiser des modèles avancés de pricing et de revenue management, permettant de prévoir, indexer et optimiser les contrats clients dans un contexte business à forts enjeux. 🧠 Missions principales 1. Développement & optimisation de modèles Concevoir et développer des modèles avancés de pricing (indexation, forecasting, optimisation des revenus). Améliorer la performance des algorithmes existants (précision, vitesse, robustesse, explicabilité). Construire de nouveaux modèles data-driven liés au revenue management (élasticité, stratégie tarifaire, scénarios). 2. Engineering & Data Pipeline Développer, maintenir et optimiser des pipelines dans Azure Data Factory & Azure Databricks . Manipuler, transformer et structurer des données dans un environnement big data. Intégrer et orchestrer les données via Azure Lakehouse / ADLS . (Bonus) Utiliser PySpark pour gérer des volumes de données importants. 3. Collaboration & Interaction Business Travailler en étroite collaboration avec les équipes Pricing, Finance et Opérations. Comprendre les besoins business et les traduire en modèles statistiques exploitables. Documenter, présenter et vulgariser les résultats auprès des équipes métier. Garantir une forte réactivité et la fiabilité des livrables compte tenu des enjeux stratégiques. 🛠️ Stack technique Python : indispensable (modélisation, data processing, industrialisation). Azure Cloud : Databricks, ADF, ADLS / Lakehouse. PySpark : apprécié. Méthodes & domain expertise : Pricing algorithmique Revenue management Forecasting (séries temporelles, modèles ML) Optimisation (linéaire, stochastique, contraintes)
CDI

Offre d'emploi
Data Analyst H/F

Publiée le
Data analysis
Database
PL/SQL

35k-40k €
Saint-Brieuc, Bretagne
Lieu : Saint-Brieuc (22) Salaire : 35/40K€ Rythme : Présentiel Nous recrutons pour un intégrateur de solutions industrielles et tertiaires en pleine croissance situé à proximité de Saint-Brieuc dans les Côtes d’Armor. Il s’identifie comme un interlocuteur global pour les entreprises ayant besoin de solutions logicielles innovantes en automatisation, informatique, électricité, GTB, maintenance… Il souhaite couvrir l’ensemble du cycle, de l’étude/conception à la mise en œuvre, la formation, la maintenance et le suivi de leurs clients, afin d’apporter une solution clés-en-main. Dans le cadre de leur développement, notre client souhaite recruté un Data Analyst confirmé. Les missions sont les suivantes : - Interpréter les besoins métier et les transformer en problématiques analytiques exploitables. - Veiller à la qualité, la cohérence et la robustesse des données utilisées dans les modèles et analyses. - Préparer, explorer et modéliser des jeux de données complexes afin d’en extraire des résultats actionnables. - Développer et maintenir des indicateurs, rapports avancés et outils analytiques pour soutenir les décisions stratégiques. - Documenter les méthodes, modèles et workflows, et contribuer à la diffusion des bonnes pratiques data au sein de l’organisation. - Accompagner et former les utilisateurs aux analyses, modèles et outils développés pour garantir leur bonne appropriation. - Effectuer une veille continue sur les technologies, méthodes statistiques et avancées en machine learning, puis partager les évolutions pertinentes avec l’équipe.
Freelance

Mission freelance
Business Analyst / Confirmé - Senior

Publiée le
Microsoft Excel
MySQL
Python

3 mois
400-650 €
Seine-Saint-Denis, France
Télétravail partiel
Bonjour à tous, Je recherche pour le compte d'un de mes clients un Business Analyst. Voici les missions principales : Réalignement et qualité des données • Cartographier et analyser les données provenant des différentes sociétés du Groupe. • Identifier les écarts, incohérences et redondances. • Réaliser les opérations de nettoyage, harmonisation et migration (via Excel, Python, SQL si nécessaire). • Développer et maintenir des scripts d’automatisation (Python, Pandas, Regex, API). • Expérimenter l’usage de modèles IA (GPT, ML) pour accélérer l’enrichissement, le matching et la classification de données. RUN BI & Reporting • Assurer la disponibilité et la fiabilité des modèles/reports Power BI de publication. • Gérer les incidents et demandes utilisateurs (RUN BI, correctifs, évolutions). • Monitorer les traitements Fabric/Power BI (Data pipelines et Refresh Semantic models) et collaborer avec l’IT pour résoudre les problèmes. • Documenter et optimiser les process de mise à jour et de refresh des dashboards. Analyse métier & accompagnement • Traduire les besoins métiers en spécifications fonctionnelles et data. • Accompagner les équipes locales dans l’adoption des dashboards et outils analytiques. • Proposer des recommandations pour améliorer la gouvernance et la qualité des données. • Être le point de contact privilégié entre équipes Data, IT, BI et filiales.
Freelance

Mission freelance
Expert Backup et audit d'infrastructure.

Publiée le
Audit
Infrastructure
Stratégie

1 an
400-600 €
Maurepas, Île-de-France
Télétravail partiel
- Missions principales : - Audit & Analyse : - Réaliser un état des lieux complet de l’infrastructure de sauvegarde (serveurs, switchs, appliances, politiques, SLP, PRA). - Identifier les points de fragilité, les risques opérationnels et les écarts par rapport aux standards. - Évaluer la performance, la fiabilité et la conformité des processus existants. - Définition de la Stratégie : - Proposer une stratégie de sauvegarde adaptée aux enjeux métiers et techniques de l'entreprise. - Définir les politiques de sauvegarde/restauration par classification - Intégrer les exigences de PRA, de rétention, de duplication et de restauration. - Optimisation & Modernisation : - Recommander des évolutions techniques (upgrade NetBackup, rationalisation des serveurs, automatisation). - Intégrer les outils de monitoring, reporting et alerting dans une logique proactive. - Proposer des solutions de sécurisation des données (chiffrement, segmentation, accès). - Reporting & Documentation : - Produire des rapports d’audit détaillés et des recommandations formalisées. - Documenter les procédures, les flux, les configurations et les plans de remédiation. - Accompagner les équipes dans la mise en œuvre des changements. - Compétences requises : Techniques : - Expertise Veritas NetBackup (v9.x), Appliances 5250, OpsCenter - Connaissance des environnements Windows Server, Linux, VMware - Maîtrise des sauvegardes FS, DB, VM, NDMP, Tape Library IBM TS4500 - Expérience en audit d’infrastructure IT - Méthodologiques : - ITIL (gestion des incidents, changements, DR) - Capacité à formaliser des recommandations stratégiques - Connaissance des normes ISO 27001 / PRA / PCA - Relationnelles : - Capacité à dialoguer avec les équipes techniques, métiers et fournisseurs - Sens de la pédagogie et de la conduite du changement - Esprit critique et rigueur analytique
Freelance

Mission freelance
Ingénieur(e) IA / ML Ops senior

Publiée le
.NET Framework

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 6 ans et plus Métiers Fonctions : Etudes & Développement, Ingénieur Spécialités technologiques : Versionning, Gestion de configuration ML, Monitoring, RGPD, Automatisation des test Compétences Technologies et Outils GitHub CI/CD GIT MISSIONS En tant qu’ingénieur(e) IA / ML Ops senior, vos principales missions sont de : - Gérer le portefeuille de cas d’usage d’IA (ML/deeplearning, IA Gen, agentique) pour un ou plusieurs départements. - Être le référent IA auprès de vos différents interlocuteurs : chef de projets, développeurs, architectes, métiers, partenaires internes et externes. - Accompagner les directions dans le cadrage de leurs cas d’usage et traduire les besoins métiers en spécifications techniques. - Contribuer à la modélisation de votre portefeuille de cas d’usage : - S’assurer que les modèles développés respectent les standards de performance, robustesse, explicabilité et conformité. Garantir que les modèles / cas d’usage développés soient parfaitement industrialisables. - Mettre en place les bonnes pratiques, méthodes de Feature Engineering et de validation des données. - Challenger les approches proposées par les Data Scientists. - Piloter l’industrialisation et le déploiement des modèles IA - Définir et appliquer le cadre ML Ops du groupe : reproductibilité, versioning, automatisation des tests, gouvernance des modèles - Concevoir des architectures IA modulaires, en évaluant en amont ce qui a déjà été développé et en favorisant la mutualisation plutôt que le redéveloppement systématique. Travailler en collaboration étroite avec les autres directions IA pour harmoniser les choix technologiques et accélérer l’industrialisation. - Construire et implémenter les pipelines, CI/CD, monitoring. - S’assurer de la conformité avec les normes internes techniques et réglementaires (cadre normatif / IA act / RGPD). - Garantir la qualité et la conformité - Structurer et diffuser les bonnes pratiques : organisation du code / worflow Git, qualité et tests, ML Ops et reproductibilité (tracking, versioning, CI/CD, orchestration, infra as code, …), sécurité, gouvernance et réutilisabilité, « definition of done », règles d’usage de GitHub Copilot - Auditer et valider les modèles / cas d’usage développés. - Garantir la qualité et la conformité des livrables avant mise en production. - Etablir la traçabilité : documentation, métadonnées, suivi des performances. - Être le point de contact technique privilégié pour les instances de validation. - Encadrer et accompagner les juniors et les collaborateurs dans le domaine de l’IA. - Organiser la montée en compétence progressive et objectivée des juniors. - Jouer un rôle de pédagogue vis-à-vis des métiers pour vulgariser les concepts, les choix technologiques et assurer leur adhésion. - Assurer une veille technologique active sur les outils, frameworks, et paradigmes IA. Proposer de nouvelles solutions / architectures adaptées aux besoins métiers. - Usage Interne / Internal Use - Anticiper les évolutions des réglementations et intégrer les enjeux de responsabilité de l’IA.
Freelance

Mission freelance
Expert IA / CP Cybersécurité (Sénior)

Publiée le
Cybersécurité
Data governance
Data Lake

12 mois
550-650 €
Île-de-France, France
Télétravail partiel
Contexte du poste Dans un contexte d’accélération des usages de l’IA et d’exigences croissantes en cybersécurité et conformité réglementaire (NIS2, RGPD, AI Act, bonnes pratiques ISO/IEC 42001, 27001/27005…), l’organisation souhaite structurer et formaliser sa politique de cybersécurité appliquée à l’IA. Le Chef de projet IA / Cybersécurité jouera un rôle clé dans la définition du cadre, sa mise en œuvre opérationnelle, et l’accompagnement des équipes techniques et métiers. Missions principales 1. Élaboration de la politique de cybersécurité appliquée à l’IA Construire une politique cybersécurité dédiée aux projets IA (purs ou intégrant des briques IA). Définir les exigences de sécurité adaptées aux différents types d’IA (ML, LLM, modèles embarqués, services cloud, etc.). Intégrer les enjeux liés aux données (qualité, confidentialité, gouvernance, gestion des jeux d’entraînement). 2. Définition du processus de prise en compte de la cybersécurité dans le cycle de vie des projets IA Conception d’un processus de sécurité couvrant tout le cycle : idéation, cadrage, conception, entraînement, validation, déploiement, exploitation. Coordination avec les métiers, les équipes d’ingénierie, les architectes, le juridique, la data gouvernance et le RSSI. Intégration du processus dans la gouvernance projet et dans les instances existantes. 3. Rédaction du livrable de référence : “Politique de prise en compte de la cybersécurité dans les projets et produits IA” Le livrable inclura notamment : L’organisation cible et les rôles/responsabilités (Métiers, Data, RSSI, Architectes, Juridique, Achats…). Les jalons de validation et exigences à contrôler à chaque étape. Les points de contrôle cyber spécifiques aux projets IA (robustesse des modèles, attaques adversariales, données sensibles, dérives de modèle, dépendances cloud…). Les grilles d’évaluation et matrices de risques cyber appliquées à l’IA (risques modèles, risques données, risques d’exploitation). Les clauses contractuelles types pour appels d’offres et contrats incluant de l’IA : obligations de sécurité, exigences de gestion et protection des données, auditabilité et monitoring, obligations de conformité (AI Act, RGPD…), obligations en matière de gestion de vulnérabilités IA. 4. Préparation de la phase opérationnelle Préparer le passage de la politique à l’opérationnel. Former et sensibiliser les équipes (ingénierie, métiers, achats, juridique). Participer à la structuration du dispositif opérationnel et soutenir l’Expert IA / Cybersécurité. Contribuer à la mise en place des outils de suivi, audit, monitoring sécurité des modèles.
Freelance

Mission freelance
Expert Technique – SSDLC & Solutions IA

Publiée le
Python

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Expert technique Spécialités technologiques : Infrastructure, Cloud, QA, API, Automatisation des tests Au sein d’un environnement international, la mission consiste à co-définir, expérimenter et déployer un cadre de développement logiciel sécurisé (SSDLC) intégrant les apports récents de l’intelligence artificielle et de l’automatisation. Le rôle requiert une solide expérience technique, une compréhension fine du cycle de vie logiciel et une capacité à accompagner la transformation des pratiques d’ingénierie logicielle dans un contexte complexe et distribué. MISSIONS Responsabilités principales 1. Co-définition et consolidation du SSDLC - Collaborer avec les équipes sécurité, développement et architecture pour co-construire le futur cadre SSDLC. - Intégrer des outils d’assistance au codage (Copilot, etc.) et des pratiques de sécurité automatisées dans les différentes phases du cycle. - Définir les contrôles de sécurité et mécanismes de validation pour le code généré par IA. - Rédiger la documentation, les playbooks et supports de formation pour faciliter l’adoption du SSDLC.* - Contribuer à l’amélioration continue des processus de développement et de validation. 2. Expérimentation et innovation autour de l’IA et des agents logiciels - Piloter des proof-of-concepts sur les assistants de codage, la génération de code et les workflows agentiques. - Concevoir et exécuter des expérimentations pour mesurer les gains de productivité, l’impact sur la qualité du code et les implications sécurité - Construire des prototypes intégrant l’IA dans tout le cycle de développement (planification, codage, test, déploiement, maintenance). - Analyser les données issues de ces expérimentations et formuler des recommandations stratégiques. - Participer activement à la communauté interne des développeurs IA et au partage de connaissances. 3. Évolution et support des plateformes internes - Faire évoluer l’assistant de code interne en y intégrant des fonctionnalités avancées et des garde-fous de sécurité. - Intégrer les outils dans les IDE et pipelines CI/CD existants pour une adoption fluide. - Contribuer à l’évolution de la plateforme d’orchestration de sécurité : détection de vulnérabilités, automatisation des tests, Intégration IA. - Développer des mécanismes d’évaluation automatisée de la qualité du code et des tableaux de bord d’excellence technique. - Collaborer avec les équipes cloud et sécurité pour aligner les solutions sur les standards internes (AWS, Azure, Kubernetes, OpenShift/RedHat). Expertise souhaitée - Excellente maîtrise du développement web moderne (JavaScript/TypeScript, Python, Node.js, React/Vue/Angular). - Connaissance approfondie de plusieurs langages (Java, Go, C#, etc.) et des architectures microservices et cloud-native. - Maîtrise des pipelines CI/CD, du déploiement sur AWS et Azure, de la containerisation (Kubernetes, OpenShift) et de l’Infrastructure as Code. - Expérience avec les outils de sécurité : SAST/DAST, gestion des dépendances et des secrets, pratiques de codage sécurisé. - Familiarité avec les cadres de sécurité (NIST, OWASP SAMM, ISO 27001) et les outils de productivité développeur. - Connaissance pratique des LLM, frameworks d’agents IA, prompt engineering, et intégration de modèles via API. - Expertise ML appliquée à l’ingénierie logicielle (détection de vulnérabilités, analyse de code, scoring de qualité). - Compétences fonctionnelles et comportementales Une certification QA constitue un atout. Profil recherché - Tech Lead ou Expert Software Engineering avec une solide expérience du développement sécurisé et de l’intégration de l’IA dans les pratiques d’ingénierie. - Familiarité avec les outils d’assistance au développement (Copilot, CodeWhisperer, etc.). - Expérience dans la conception d’applications, le déploiement et la gestion du cycle de vie logiciel complet. - Capacité à interagir avec de multiples parties prenantes, à la croisée du développement, de la recherche et de la sécurité. Compétences Technologies et Outils React C# Angular AWS JS Python CI/CD TypeScript Azure Redhat JavaScript Kubernetes Méthodes / Normes ISO 27001
Freelance

Mission freelance
Data Engineer (IA/Géospatial) (H/F)

Publiée le
MLOps
Python

6 mois
300-350 €
Toulouse, Occitanie
Télétravail partiel
Notre client, spécialiste du Traitement et Analyse de données, est à la recherche de son futur Data Engineer (IA/Géospatial) (H/F) pour son site de Toulouse, dans le cadre de son activité. Intégré aux équipes du client, vous devrez : * Développer et industrialiser des pipelines et modèles IA exploitant des données géospatiales et météorologiques, dans un environnement cloud-native. ## Compétences techniques attendues * Données météo & satellites Maîtrise des formats (NetCDF, GeoTIFF, HDF5), outils Python (xarray, rasterio…), prétraitement d’images, expérience Sentinel-1/2 et données météo (ARPEGE, AROME, GFS, ERA5). * Data Engineering Pipelines ETL/ELT scalables, orchestration (Airflow, Prefect, Argo), bases de données (PostgreSQL/PostGIS, MongoDB, Snowflake), optimisation des accès. * MLOps & DevOps Déploiement de modèles (CI/CD, monitoring), outils ML/Cloud (MLflow, SageMaker, Docker, Kubernetes, Terraform), AWS/Azure/GCP. * Développement logiciel Python, frameworks web (FastAPI, Django, Flask), bonnes pratiques (tests, docs, versioning).
Freelance

Mission freelance
Data Scientist Sénior | Expert Retail (H/F)

Publiée le
Apache Airflow
Docker
Google Cloud Platform (GCP)

12 mois
400-590 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’une transformation digitale d’envergure au sein d’un grand acteur du retail, la Direction Data & IA renforce ses équipes pour accélérer la mise en œuvre de modèles de Machine Learning à fort impact business. Le consultant interviendra au sein d’une squad Data Science dédiée à la conception, à l’industrialisation et à l’exploitation de modèles de ML appliqués à divers cas d’usage (pricing, prévision, recommandation, fidélisation, supply chain…). Missions principales Concevoir, entraîner et déployer des modèles de Machine Learning adaptés aux besoins métiers (classification, régression, clustering, NLP, etc.) Préparer et qualifier les jeux de données (data cleaning, feature engineering, détection d’anomalies, sélection de variables) Mettre en place et maintenir les pipelines d’industrialisation (MLOps : Airflow, MLflow, Docker, CI/CD) Collaborer étroitement avec les équipes Data Engineering et Produit pour garantir la scalabilité et la performance des modèles Superviser et améliorer les modèles en production (monitoring, retraining, suivi des indicateurs) Documenter et restituer les travaux auprès des parties prenantes techniques et métiers
Freelance
CDI

Offre d'emploi
DATA SCIENTIST

Publiée le
Azure
Databricks
Python

3 ans
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client nous recherchons un Data Scientist 👽. Contexte Notre client a misé sur une plateforme Big Data sur Microsoft Azure pour centraliser ses flux data, stocker des pétaoctets de données dans des Data Lakes et industrialiser des cas d’usage IA stratégiques. La Data Science joue un rôle clé, notamment dans les projets de maintenance prédictive, d’information voyageurs et d’optimisation opérationnelle. Missions principales Développer des modèles de Machine Learning et d’IA sur des volumes massifs de données stockées sur Azure (Data Lake, Data Factory, Databricks). Construire des features temporelles , utiliser des séries temporelles ou des méthodes statistiques avancées pour modéliser des phénomènes (ex : retards, maintenance). Analyser les données météorologiques, de trafic, IoT, capteurs ou autres sources pour créer des prédictions (ex : retards, pannes) ou des systèmes d’alerte. Industrialiser les pipelines d’entrainement et d’inférence sur Azure (notamment via Azure Databricks, Azure ML, etc.). Monitorer les performances des modèles, mettre en place des métriques qualité, des alertes, des feedback loops. Collaborer avec les équipes infrastructure / Data Engineering pour garantir la scalabilité et la gouvernance des flux data. Accompagner les équipes métier (opération, maintenance, transport, marketing) dans l’exploitation des modèles prédictifs. Documenter les modèles, écrire des rapports, créer des visualisations et restituer les résultats de manière pédagogique. Cloud Azure : Data Lake, Data Factory, Databricks. Big Data : Spark (Scala ou Python) pour traitement distribué. Langages : Python (pandas, scikit-learn, ML frameworks), SQL / T-SQL. Machine Learning / IA : régression, classification, séries temporelles, modèles statistiques, ou algorithmes supervisés / non supervisés. Data Engineering / Pipeline : connaissance des pipelines ETL/ELT, ingestion de données, feature engineering. MLOps : pipelines de déploiement, scoring, orchestration, monitoring, versioning des modèles. Gouvernance des données : qualité, sécurité, catalogage. Architecture des données : conception de schémas, datalakes, modélisation. Compétences transverses Esprit analytique et méthodique . Capacité à vulgariser des concepts complexes auprès des équipes métier. Autonomie, rigueur, curiosité et force de proposition. Aisance relationnelle et collaboration interdisciplinaire (Data, produit, exploitation). Capacité à prioriser et structurer le travail sur des sujets long terme. Profil recherché Formation : Bac+5 (informatique, data, maths, statistique, IA…). Expérience : minimum 3 à 6 ans en data science / machine learning, idéalement sur des environnements cloud / Big Data. Langues : bon niveau d’anglais technique. Atout : expérience antérieure dans le transport, l’IoT, la maintenance, ou de lourdes infrastructures data.
CDI

Offre d'emploi
Data scientist

Publiée le
Python

40k-60k €
Paris, France
Télétravail partiel
Ce rôle de Data Scientist est une nouvelle création de poste, avec un démarrage envisagé en janvier 2026 . Le Data Scientist rejoindra l'équipe pour travailler sur des projets d'analyse de données, d'apprentissage automatique (Machine Learning - ML), de collecte de données et de développement d'applications/solutions. Les principales responsabilités incluent : L'analyse approfondie de la donnée. La récolte et le traitement des jeux de données. Le développement et l'implémentation de modèles de Machine Learning. Le déploiement des solutions développées.
124 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous