Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 433 résultats.
Freelance
CDD

Offre d'emploi
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
Elasticsearch

6 mois
50k-55k €
400-410 €
Île-de-France, France
Dans le cadre du développement de nos activités, nous recherchons un(e) Data Engineer pour renforcer l'équipe technique de notre client et intervenir sur des projets à forte valeur ajoutée autour de la data. En tant que Data Engineer, vous serez amené(e) à : Assurer le suivi technique des projets : suivi des développements, réalisation de revues de code et respect des bonnes pratiques Gérer les incidents techniques : analyse, résolution et mise en production des correctifs Proposer des améliorations techniques : identification des axes d’évolution et optimisation des performances et de la stabilité des applications Garantir la qualité du code : mise en place de tests unitaires et gestion de l’intégration continue Assurer la documentation technique : maintien à jour de l’architecture et de la documentation
Freelance
CDI

Offre d'emploi
Data Engineer - SPARK/SCALA/DATABRICKS

UCASE CONSULTING
Publiée le
Apache Spark
Azure
Databricks

1 an
40k-66k €
400-600 €
Île-de-France, France
📢 Data Engineer Scala Spark – Environnement Cloud (H/F) 🧩 Contexte Dans le cadre du renforcement d’une équipe Data, nous recherchons un(e) Data Engineer expérimenté(e) afin d’intervenir sur des sujets à forte volumétrie, autour de pipelines de données complexes et d’optimisation des traitements. Vous évoluerez dans un environnement technique exigeant, avec des enjeux de performance, scalabilité et qualité de la donnée. 🚀 Missions principales Développement de pipelines data en Scala / Spark (batch principalement) Optimisation des traitements et gestion de volumétries importantes Mise en place et amélioration des bonnes pratiques de développement Participation à l’architecture et aux choix techniques Collaboration avec les équipes métiers et techniques Contribution au mentoring et partage de connaissances 🧰 Stack technique Scala / Spark Maven Environnement Cloud (AWS ou Azure) Databricks (selon contexte) API HTTP Stack ELK (optionnel) ✅ Must have Solide expérience en Scala / Spark (batch) Maîtrise des optimisations Spark Expérience sur fortes volumétries de données Bonnes pratiques de développement (clean code, build, versioning) Expérience en environnement Cloud (AWS ou Azure) Minimum 5 ans d’expérience en Data Engineering ➕ Nice to have Expérience avec Databricks Développement d’ API HTTP Connaissance de la stack ELK Expérience en environnement multi-projets 🤝 Soft skills Esprit d’analyse et rigueur Autonomie et force de proposition Bon relationnel et esprit d’équipe Capacité à comprendre les enjeux métiers Sens des priorités et gestion des délais 🎓 Profil Formation Bac+3 à Bac+5 en informatique Anglais technique requis 8 ans d'expériences MINIMUM ! 📍 Modalités Télétravail partiel (jusqu’à 3 jours / semaine) Mission longue Démarrage : ASAP
Freelance

Mission freelance
Cash Management - Project Management - Business Analyste KYC Industrialisation

NOVAMINDS
Publiée le
Data management
Know your customer (KYC)

9 mois
500-690 €
Paris, France
Objectifs Mise en place d'un parcours KYC optimum cross pôles et entités au service de la réalisation des KYC clients Corporate. Initiative logée au sein du programme Groupe. Prestations - Etude de la Cinétique du process KYC E2E - Analyses approfondies des besoins métiers et projeter des améliorations - Product ownership pour prioritiser les fonctionnalités - Aide à l'organisation du projet : planning, roadmap, scope - Préparation et animation des workshops avec le business afin de collecter les besoins fonctionnels - Création du lient avec les contributeurs, Compliance et IT implémenter les solutions - Participation aux tests de validation et coordination des UATs - Aide sur les comminations en français et en anglais - Participation si besoin au steering et partage de statut d'avancement sur le stream Secteur d’activité : Banque Calendrier : du 09/03/2026 au 31/12/2026 Tarif d’achat maximum : 690 €HT Modalité d’intervention : hybride Mode d’engagement : Régie Localisation : Ile de France
CDI
Freelance

Offre d'emploi
Ingénieur Big Data

OBJECTWARE
Publiée le
Apache Spark
Cassandra
CI/CD

3 ans
40k-76k €
400-550 €
Île-de-France, France
Contexte : Intégration d´une équipe de développeurs data (Java, Spark, Spring) dont le rôle est la mise en place de pipelines de données à destination de vues NoSQL (Cassandra, MongoDB, Elasticsearch) Hard skills demandés : Maîtrise Développement Objet Maîtrise d’un langage objet (Java) Maîtrise SQL Framework Spring Plateforme Spark Connaissance des Web Applications & Micro-services Maîtrise DevOps (CICD, Git, Jenkins) Connaissance approfondie des bonnes pratiques de développement et des Design Pattern Connaissance Domaine Cloud Connaissance du Métier Data / Big Data Vernis langage Python Hard skills optionnels : Maitrise de Mongo DB , Cassandra, et Elastic Search Conception asynchrone Connaissance Domaine DataScience Connaissance Domaine Cybersecurité Soft skills : Autonomie Motivation Organisation Humilité Négociation Curiosité Partage Sens du service Pragmatique / Réaliste Mindset Sensibilisé à la Qualité de code Sensibilisé à la vie de Production Expérience demandée : Développement objet en environnement de production Expérience de 5 ans min en développement data Expérience dans un grand groupe (expérience de l’inertie et des contraintes d’un groupe) Expérience sur tout le cycle de vie d’une application (besoin, conception, développement, déploiement, maintenance) Expérience souhaitée en amélioration d’une solution existante (contrainte de SLA, performance, montée en charge, refactoring, voir refonte) Les missions sont : Recueillement du besoin utilisateur/BA, conceptualisation de la solution technique associée et l’implémenter Adoptation d´une approche proactive sur la qualité de code avec une méthodologie TDD Amélioration continue du code existant et revue avec les pairs des évolutions Support et sensibilisation des pairs à la qualité du code, aux bonnes pratiques et outillage améliorant l’expérience de développement Inscription dans une démarche agile avec un rythme de livraison soutenu (1 MEP / mois)
Freelance
CDI

Offre d'emploi
Data Engineer Kubernetes

KLETA
Publiée le
Helm
Kubernetes

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Consultant SAP PP QM Data Migration

SAP-HIRE
Publiée le
SAP
SAP PP
SAP QM

9 mois
Paris, France
Nous recherchons un profil SAP PP QM sur la Data Migration pour renforcer un projet de migration vers SAP S/4. La mission consiste à Identifier et analyser des données à migrer (matériaux, nomenclatures, gammes, données qualité), mapper et définitir les règles de transformation, préparer et charger les données (LSMW / Migration Cockpit), contrôles qualité des données et gestion des incidents, participer aux phases de tests (SIT/UAT) et aux répétitions de migration (cutover). Vous aurez une expérience confirmée en migration de données SAP, une bonne compréhension des données PP & QM, serait autonome, rigoureux et orienté qualité des données. La mission doit se réaliser 3 jours sur site en IDF.
Freelance

Mission freelance
Data Manager / Data Steward

Codezys
Publiée le
Data management
Data quality
Lean

12 mois
Rennes, Bretagne
Nous recherchons un profil capable de renforcer notre équipe de Data Management afin de soutenir la réalisation de nos engagements concernant nos offres de services dans ce domaine. Cette personne accompagnera également nos parties prenantes métier dans leurs projets liés à la gestion des données. ENJEUX La mission vise à garantir le succès des initiatives métier portant sur le catalogage des données et leur nettoyage, en particulier lors de projets de transformation majeurs. OBJECTIFS Contribuer à l’enrichissement et au renforcement de notre offre de services en Data Management (méthodologies, outils, formations, accompagnement au changement…) Faciliter la collaboration entre les équipes (Data, IT, architecture, métier) autour de la gestion des données (catalogage, qualité, documentation, sécurité, modélisation…) Professionnaliser et accompagner la montée en compétences des Data Owners, Data Stewards et Data Custodians concernant leurs rôles liés à la qualité des données Participer à l’amélioration de la culture Data au sein de l’organisation Le périmètre technique englobe : Data Gouvernance Data Management Data Quality DAMAS Méthodologies Lean et Agile Outil Blueway MyData Catalogue Tout le système d’information, incluant SIO et legacy Intelligence artificielle Objectifs et livrables Les prestations attendues, non exhaustives, comprennent : Cataloguage de données : réalisation de projets de documentation métier et technique, intégration dans l’outil My Data Catalog Data Quality Management : audits de qualité, propositions de plans de remédiation Accompagnement au changement, formation et sensibilisation Data : formation à l’utilisation de My Data Catalog, accompagnement individuel ou collectif (1 à 1, ateliers) Communication : création et diffusion de newsletters, publications sur l’intranet Participation à des réunions de communauté : Data Owners, Data Stewards, Data Custodians Les livrables attendus comprennent : Les catalogues de données dans l’outil My Data Catalog Les résultats des audits de qualité des données Supports de formation sur les outils et méthodologies de Data Management Newsletter ou autres publications destinées à la communication interne
Freelance

Mission freelance
Développeur PowerPlatform Senior - full remote

Net technologie
Publiée le
Microsoft Fabric
Power Apps
Power Platform

3 mois
France
Nous recherchons un(e) Développeur Power Platform expérimenté pour intervenir sur des projets de développement d’applications et d’automatisation autour de l’écosystème Microsoft. 🎯 Missions ❇️Développement d’applications PowerApps (Canvas & Modern Driven Apps) ❇️Mise en place de solutions Power Platform intégrées ❇️Contribution à l’exploitation et à l’intégration de Microsoft Fabric ❇️ Collaboration avec les équipes métiers et techniques dans un environnement international
Freelance

Mission freelance
Business Analyst Data Platform / Databricks Connaissance SAP

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Databricks
SAP FICO

12 mois
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un client basé à Lyon un Freelance Data Engineer / Data Platform Consultant pour intervenir au cœur d’un environnement Data stratégique basé sur Databricks . 🎯 Contexte de la mission Vous jouerez un rôle clé à l’interface entre les métiers (Qualité, Usines, Finance, Opérations…) et la plateforme Data. Votre objectif : faciliter l’exploitation de la donnée en traduisant les enjeux métiers en solutions analytiques concrètes. 🚀 Vos responsabilités ✅ Recueil & traduction des besoins métiers Comprendre les problématiques opérationnelles Transformer les besoins en cas d’usage analytiques ✅ Data Engineering & Gouvernance Identification des sources (SAP ERP, MES Apriso, CRM…) Nettoyage, transformation et structuration des données Garantie de la qualité et de la cohérence Respect des process de gouvernance ✅ Analyse & Valorisation Analyses descriptives, exploratoires, prédictives SQL, Python, R… Identification de leviers d’optimisation ✅ DataViz & Storytelling Création de dashboards (Power BI, Tableau, Qlik…) Restitution claire et orientée décision Construction de véritables “data stories” ✅ Accompagnement à la décision Recommandations opérationnelles Définition & suivi des KPIs Mesure d’impact
Freelance
CDI

Offre d'emploi
Expert Data Platform Snowflake

Taimpel
Publiée le
AWS Cloud
CI/CD
Kubernetes

2 ans
59k-65k €
550-600 €
Massy, Île-de-France
Fiche de poste – Expert Data Platform Snowflake (H/F) Contexte de la mission Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Principales activités Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) Participer aux choix technologiques de l’offre à mettre en place Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units Accompagner à la prise en main de la plateforme Data Compétences spécifiques requises Connaissances techniques Les principales technologies à connaître : Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE Architectures Data et leur écosystème (Snowflake, Bedrock) Architectures et services du cloud (AWS en priorité, Terraform) Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC Languages : Shell, Python, SQL Sensibilité aux problématiques de sécurité et normes associées Maitrise des architectures des flux Autres Capacité à mobiliser, fédérer et créer une vision commune Capacité à travailler dans un contexte multi-site, multi-entité et international Bonne communication écrite et orale Langues Anglais lu et parlé de manière professionnelle Lieu de la mission & télétravail Site : Roubaix (59) ou Massy 2 jours maximum de travail à distance/semaine sous validation du prescripteur
Freelance
CDI

Offre d'emploi
Expertise Spark Data

NEO SOFT SERVICES
Publiée le
Apache Spark

20 jours
35000, Rennes, Bretagne
Dans le cadre d’un besoin interne, nous recherchons un Expert Data Engineer spécialisé Spark. La mission porte sur une solution de traitement de données dédiée à des usages de statistiques et de Business Intelligence. Cette solution repose sur une architecture intégrant Kafka Connect, Spark, Kubernetes et MongoDB, déployée sur une infrastructure OVH. Volumétrie cible : 350 bases de données 5 000 requêtes par seconde 1 To de données par an Tâches à réaliser : Réalisation d’une analyse technique et d’un état des lieux de l’existant Élaboration de recommandations d’amélioration : Optimisation du streaming Spark, notamment sur les aspects temps réel et dimensionnement de l’infrastructure Recommandations sur le dimensionnement de l’infrastructure pour le traitement en temps réel Optimisation de MongoDB, incluant la structuration et la standardisation des modèles de données Rédaction d’un document d’architecture cible accompagné des préconisations associées
CDI

Offre d'emploi
Tech Lead Data Engineer H/F

JEMS
Publiée le

50k-75k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : i5nesk9tv3
Freelance
CDI

Offre d'emploi
Data Engineer Senior Snowflake (Lead / Mentoring)

UCASE CONSULTING
Publiée le
AWS Cloud
Qlik
Snowflake

1 an
40k-45k €
400-650 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous 😃 🔎 Contexte Dans le cadre du déploiement de Snowflake au sein de l’équipe Data, notre client recherche un Data Engineer expérimenté pour accompagner la montée en compétence des équipes, structurer l’architecture cible et intervenir sur des chantiers clés (migration & ingestion) 🎯 Objectifs de la mission 1. Accompagnement & montée en compétence Accompagner les équipes dans la prise en main de Snowflake Animer / coanimer des ateliers et diffuser les bonnes pratiques Faciliter l’appropriation des nouveaux workflows et outils 2. Architecture & structuration Concevoir et documenter l’architecture cible Snowflake Mettre en place et optimiser les pipelines d’ingestion et de transformation Garantir la performance, la scalabilité et la robustesse des traitements 3. Gouvernance & qualité de données Définir les règles de gouvernance (rôles, accès, organisation des environnements) Mettre en place des standards de développement (naming, versionning, documentation) Implémenter des processus de data quality (tests automatisés, contrôles de cohérence, fraîcheur…) Mettre en place des mécanismes de data observability et d’alerting Documenter les processus de gestion des incidents 4. Missions opérationnelles Participer à la migration de data products (Athena → Snowflake) Contribuer à l’ingestion et la structuration de nouvelles sources de données 🔧 Must have Expérience significative en tant que Data Engineer Expertise Snowflake (indispensable) Solide maîtrise SQL (optimisation, performance) Expérience en ingestion de données et/ou migration de plateformes data Connaissances en data quality et gouvernance Capacité à accompagner des équipes (pédagogie, mentoring) ➕ Nice to have Expérience sur AWS Connaissance de Qlik Expérience en environnement data moderne (pipelines, orchestration, CI/CD…) Contexte conseil / ESN Expérience sur des sujets de data observability 📍 Modalités Démarrage : Avril 2026 Localisation : Lyon Télétravail : 3 jours sur site/2 jours de TT
Freelance

Mission freelance
Chef de projet Innovation IA

Inventiv IT
Publiée le
Data science
Data visualisation
IA

6 mois
450-550 €
Île-de-France, France
Missions du Chef de projet Innovation IA : - Intervention sur l’ensemble du cycle de vie des projets : collecte et étude du besoin, cadrage, ateliers, bêta-tests, prototypage, etc. - Pilotage des projets : suivi de l’avancement des projets, des tâches à réaliser, coordination des équipes internes et externes. - Réalisation de tests IA : PoC et tests de solutions internes et externes d'IA pour répondre aux impératifs du développement de l’IA du quotidien et des supports - Animation des réunions projets : gestion et animation des réunions de suivi projets, favorisant la coordination et la communication entre les équipes et les décideurs. - Interface métier : être en mesure de coordonner l’intégralité des actions à mener pour assurer la réussite du projet, dans la mesure où elles concernent plusieurs directions ou département - Suivi des indicateurs de performance et amélioration continue : suivi et production de bilans récapitulatifs sur les statistiques et l'adoption des solutions, analyse des KPIs fonctionnels et techniques, fournitures d’éléments et d’information au responsable pour arbitrage des mesures à mettre en œuvre le cas échéant - Intégration des actions nécessaires de formation, d’acculturation et de communication dans le dispositif FAC de CorT-ex. Ex : production de tutos vidéo ou écrits pour la prise en main d’outils, de fonctionnalités ou de technologies, proposition de plan d’acculturation et de communication pour répondre aux enjeux des phases de tests et de pré-déploiement - Rencontres & partenariats startups : à la demande du responsable, prise en charge et organisation du dialogue qui pourrait s’avérait pertinent / productif avec des partenaires publics ou privés, internes comme externes : startups, éditeurs de solutions IA, Médias Francophones Public, Union Européenne de Radiotélédiffusion, grands groupes, laboratoires de recherche et monde de l’enseignement. Exemples de livrables Les livrables attendus dans le cadre du présent marché spécifique sont par exemple : · Indicateurs de suivi projet pour tous les sujets engagés · Supports de présentation des projets · Analyse du besoin / comptes-rendus de réunion · Supports de communication
CDI

Offre d'emploi
Business Analyst Data (F/H)

CELAD
Publiée le

42k-45k €
Nantes, Pays de la Loire
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ CDI (42-45 K€) - 3 jours de télétravail / semaine - Nantes - Expérience de 4 ans minimum Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst intervenir sur un projet d’un de nos clients, dans le secteur bancaire. Contexte : Dans le cadre d’un projet de migration, vous interviendrez sur des activités telles que la rédaction de spécifications, l’analyse des impacts liés à la migration du système ainsi que la participation aux processus de certifications dynamiques. Vos principales missions : En lien avec les équipes métier et techniques, vous serez le trait d’union qui transforme les idées en solutions concrètes. - Comprendre les besoins des utilisateurs : animation d’ateliers pour challenger et prioriser les besoins - Rédiger les fonctionnalités / spécifications et les règles de gestion - Anticiper les besoins en termes de migration : anticipation, préparation et déroulé optimal de recette - Former et accompagner : vous aidez les métiers à s’approprier les outils et les usages - Conseiller les managers métiers : vous les guidez dans l’évolution de leur organisation et de leurs process - Partager et convaincre : animation de comités, restitution des analyses, recommandations stratégiques Ce que vous apportez : - Vous comprenez le fonctionnement d’un ETL et êtes capable de lire et analyser un flux ou un programme idéalement sous Semarchy - Maîtrise du langage SQL (Requêtes complexes pour rentrer en base) - Vous êtes à l’aise dans les environnements agiles, avec une bonne maîtrise des rituels - Vous savez rédiger avec clarté, parler avec impact et surtout convaincre - Vous êtes capable de vous adapter à vos interlocuteurs
Freelance

Mission freelance
Responsible AI Lead

ESENCA
Publiée le
Agent IA
Data quality
Large Language Model (LLM)

1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la Responsible AI Lead pilote la gouvernance de l’intelligence artificielle et garantit la conformité, la sécurité, l’éthique et la maîtrise des risques des systèmes IA. Encadrement Management d’une équipe spécialisée pouvant inclure : Analyste Responsible AI & Traçabilité Responsable Contrôles & Tests IA (QA IA) AI Policy Manager Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Fonctions conformité (DPO, RSSI, juridique) Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, agents, etc.) Cabinets spécialisés (audit, conformité, IA) Mission Le/la Responsible AI Lead est garant(e) de la gouvernance globale des systèmes d’intelligence artificielle. Il/elle s’assure que les cas d’usage respectent les exigences réglementaires et internes (notamment en matière de conformité, d’éthique, de sécurité et de gestion des risques), tout au long de leur cycle de vie, du cadrage au run. Responsabilités principales 1. Gouvernance et conformité IA Définir et déployer la politique d’usage de l’IA Structurer le cadre de gouvernance (standards, processus, rôles) Classifier les cas d’usage selon leur niveau de risque Définir les exigences de documentation, traçabilité et versioning 2. Gestion des risques IA Conduire les analyses de risques par cas d’usage Classifier les systèmes selon leur criticité (faible, limité, élevé) Définir les contrôles adaptés (tests, supervision, documentation) Coordonner les validations avec les fonctions conformité (juridique, DPO, sécurité) 3. Contrôles et tests IA Définir les stratégies de tests non fonctionnels : robustesse biais sécurité hallucinations dérive des modèles Fixer les critères de validation (go / no-go) Superviser les campagnes de tests IA 4. Documentation et audit Piloter la documentation réglementaire des systèmes IA Maintenir un registre des cas d’usage IA Organiser les audits internes et externes Suivre les plans de remédiation 5. Supervision en production Définir les exigences de monitoring (logs, incidents, dérives) Suivre la performance et la fiabilité des systèmes IA Mettre en place des revues périodiques Piloter la gestion des incidents IA 6. Pilotage des coûts (FinOps IA) Définir les règles de consommation (quotas, garde-fous) Suivre les coûts et l’efficience des solutions IA Recommander des optimisations 7. Diffusion des bonnes pratiques Déployer la charte éthique IA Sensibiliser et former les équipes aux enjeux de l’IA responsable Accompagner les équipes projets dans l’application des standards Promouvoir une culture de l’IA responsable à l’échelle de l’organisation
3433 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous