Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 389 résultats.
Freelance

Mission freelance
Business Analyst Technique – Plateforme Data & Investigations

ABSIS CONSEIL
Publiée le
Méthode Agile
Python
SQL

1 an
550-580 €
Île-de-France, France
Contexte Dans le cadre du renforcement de ses dispositifs de conformité, une organisation internationale met en place une plateforme technologique innovante dédiée à l’analyse et au traitement des alertes financières. Cette solution vise à améliorer l’efficacité opérationnelle, la qualité des analyses et la gestion des risques, en s’appuyant sur des technologies avancées orientées data et intelligence artificielle. Le projet s’inscrit dans une dynamique de transformation des outils internes, avec une approche moderne, évolutive et interconnectée. Mission Vous interviendrez dans le cadre du développement et de l’optimisation de cette plateforme, en lien avec des équipes métiers et techniques. Vos responsabilités incluent : Formalisation des processus fonctionnels de bout en bout Rédaction de spécifications fonctionnelles détaillées Élaboration et exécution des cahiers de tests Analyse et traitement de volumes importants de données Contribution à l’amélioration continue dans un environnement agile Participation à l’intégration de solutions innovantes, notamment liées à l’intelligence artificielle
CDI

Offre d'emploi
Data Engineer Snowflake Senior F/H/X

█ █ █ █ █ █ █
Publiée le
Apache Spark
Ocaml
Python

Ville de Paris - Archives de Paris - Centre annexe, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Ingénieur Système & Réseau – MySQL / Data Infrastructure h/f

Ela Technology
Publiée le
Ansible
Apache Airflow
Apache Kafka

6 mois
Nancy, Grand Est
💥 Enjeux de la mission Intervention sur des plateformes data critiques , au cœur de l’infrastructure SI. Focalisation sur : performance haute disponibilité fiabilité des systèmes Positionnement à la croisée du run avancé, de l’optimisation et des projets techniques . 🎯 Périmètre d’intervention Gestion des incidents N3 en production critique Optimisation des bases MySQL (tuning, performance, haute disponibilité) Industrialisation des solutions techniques Gestion de l’obsolescence (upgrades, stabilisation) Suivi des KPIs de performance et disponibilité Contribution aux évolutions de l’infrastructure data 🛠️ Environnement technique attendu Maîtrise nécessaire ou forte montée en compétence attendue sur : MySQL → expertise (performance, réplication, HA) Linux → administration avancée Docker → conteneurisation ELK → supervision et analyse avancée Ansible / Puppet → automatisation Kafka → compréhension opérationnelle Airflow → orchestration CI/CD & Git → usage courant Expériences appréciées sur : Hadoop, Spark, Hive
CDI

Offre d'emploi
Chef de Projet Build to Run – Réseau / Data / Telecom (H/F)

5COM Consulting
Publiée le
Pilotage
Ticketing

40k-50k €
Saint-Denis, Île-de-France
Rattaché(e) à une entité Production & Opérations, vous interviendrez sur des projets à forts enjeux autour des infrastructures Réseau, Data et Télécom. Votre rôle sera central dans la préparation, la sécurisation et la coordination des mises en production (MEP) , en lien étroit avec les équipes de conception (Build), d’exploitation (Run), de sécurité et les métiers. 🚀 Vos missions principales Piloter les activités Build to Run sur un portefeuille de projets (cadrage, planning, gestion des jalons Go/No Go) Organiser et animer les instances projet (comités, ateliers, points de synchronisation) Construire et suivre les plans de mise en production (bascule, repli, prérequis) Garantir l’ exploitabilité des solutions dès leur conception Coordonner l’ensemble des parties prenantes (équipes techniques, sécurité, partenaires) Identifier et piloter les risques liés aux MEP Assurer un reporting régulier et structuré auprès des responsables Contribuer à l’ amélioration continue des processus Build to Run (REX, standardisation) 🛠️ Environnement technique Réseaux de collecte / infrastructures Télécom Outils de supervision et d’inventaire (ex : Zabbix, NetBox, Nautobot…) Automatisation / industrialisation (scripts, CI/CD, orchestrateurs) Outils de gestion et de suivi (ServiceNow, Jira ou équivalents) 📦 Livrables attendus Dossiers de cadrage Build to Run Plans de mise en production complets (MEP, bascule, repli) Dossiers d’exploitabilité et documentation Run Planning consolidé des mises en production + reporting Comptes-rendus de comités et ateliers Retours d’expérience (REX) et recommandations d’amélioration
Freelance

Mission freelance
Architecte Modélisation Data (H/F)

Freelance.com
Publiée le
Cybersécurité

1 an
340-740 €
Île-de-France, France
2 jours de gratuité ( les deux premiers jours de mission ) Dans le cadre de l’équipe Architecture Solutions SI (Direction Stratégie SI, Architecture & Cloud), la mission consiste à accompagner les projets autour des solutions collaboratives et des enjeux de modélisation et d’architecture data . L’objectif est d’assurer la cohérence des architectures data avec les processus métiers, tout en garantissant l’alignement avec les standards SI et les objectifs de rationalisation. ⸻ 🧩 Rôle & responsabilités En tant qu’Architecte Data / Expert Data Modélisation, vous serez en charge de : Accompagner les projets dans la définition de leur architecture data Assurer l’alignement avec la stratégie SI et les processus métiers Définir, promouvoir et faire évoluer le cadre d’architecture data Réaliser la modélisation fonctionnelle des objets métiers Maintenir et enrichir la cartographie SI Contribuer à la conception des modèles logiques et physiques de données (MLD / MPD) Accompagner les équipes de développement sur les sujets data ⸻ 🏗️ Activités principales Modélisation data des solutions dans le cadre des projets Définition des architectures fonctionnelles et data, de la phase de cadrage jusqu’à la mise en production Production des livrables d’architecture et mise à jour du référentiel Présentation et validation des solutions en instances d’architecture Émission d’avis d’architecture Coordination des activités d’architecture Pilotage de l’engagement d’architecture auprès des parties prenantes
Freelance

Mission freelance
249593/Product Owner DATA SUR DES DONNEES RH - Expertise dans la création de Datalake RH

WorldWide People
Publiée le
Data Lake

9 mois
Saint-Denis, Île-de-France
PO DATA SUR DES DONNEES RH - Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP • Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Sénior PRO_OWN-3 Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP • Compétences demandées Compétences Niveau de compétence donnée rh : GA / PAIE / GT / FORMATION Confirmé standard adp Confirmé Power BI Confirmé datalake rh Confirmé
Freelance

Mission freelance
POT9149 - Un Architecte Dataiku / Architecte Data Senior à Saint-Brieuc

Almatek
Publiée le
Dataiku

6 mois
Saint-Brieuc, Bretagne
Almatek recherche pour l'un de ses client, Un Architecte Dataiku / Architecte Data Senior à Saint-Brieuc Les livrables sont : Schéma d’architecture data global + focus Dataiku Guide des bonnes pratiques Dataiku Templates / bibliothèque réutilisable Compétences techniques : Dataiku - Confirmé - Impératif Architecture data modernes - Confirmé - Impératif DBT et workflows de transformation - Confirmé - Impératif Description détaillée Contexte: L’architecte Dataiku interviendra en support transverse des équipes métiers et techniques pour structurer les usages et diffuser les bonnes pratiques. Objectifs Industrialiser et structurer l’usage de Dataiku Accompagner les équipes dans l’exploitation de la donnée Définir des standards et composants réutilisables Assurer l’intégration avec l’écosystème data (S3, DBT, Data Catalog) Contribuer aux initiatives de data governance Missions principales 1. Architecture & gouvernance Définir l’architecture Dataiku et son intégration avec AWS S3 Structurer les environnements (dev / recette / prod) Mettre en place les bonnes pratiques (flows, versioning, sécurité) 2. Administration & industrialisation Administrer la plateforme (accès, configuration, monitoring) Mettre en place les processus de déploiement et de recette Créer une bibliothèque de composants réutilisables (templates, pipelines) Contribuer à la productisation des cas d’usage data 3. Accompagnement des équipes Support aux équipes métiers et techniques Aide à la prise en main de Dataiku Diffusion des bonnes pratiques et montée en compétence Accompagnement à la mise en œuvre de cas d’usage 4. Intégration data Articuler Dataiku avec : DBT (silver ? gold) outils de data quality (ex : Elementary) Data Catalog Assurer la traçabilité et la documentation des données 5. Data governance Support au déploiement du data catalog Contribution à l’alimentation des métadonnées Appui aux data owners et aux processus de gouvernance Contribution possible sur ingestion / contrôle des données Profil recherché Compétences techniques Expertise Dataiku (architecture et administration) Bonne maîtrise des architectures data (Data Lake, ELT) Connaissance AWS (S3) et DBT Sensibilité data quality et data governance Compétences fonctionnelles Structuration de bonnes pratiques Accompagnement des équipes métiers Connaissance MDM appréciée Modalités Démarrage : ASAP Présence : ~2 jours/semaine sur site (22) Contexte : environnement majoritairement interne
Freelance

Mission freelance
Cadrage risques & data (BCBS 239)

Mon Consultant Indépendant
Publiée le
Data Strategy
Gestion de projet

4 mois
650-700 €
Paris, France
Dans le cadre de la transformation de ses fonctions de contrôle, un acteur de premier plan du Crédit à la Consommation souhaite définir et structurer sa future Plateforme Risque Cible. L'enjeu est double : moderniser l'infrastructure technologique pour intégrer les opportunités offertes par l'Intelligence Artificielle (automatisation des contrôles) tout en garantissant une conformité stricte aux exigences réglementaires, notamment BCBS 239. La mission s'inscrit dans un environnement transverse, nécessitant une synergie forte entre la Direction des Risques, les équipes Data et l'IT. Objectifs et Périmètre L'objectif central est de réaliser une analyse d'écarts (gap analysis) entre l'existant et la cible, puis de concevoir la feuille de route opérationnelle pour la mise en œuvre du dispositif. Le périmètre prioritaire est le Risque de Crédit, incluant également les risques financiers, de valeur résiduelle et opérationnels. Descriptif des interventions Phase 1 : Diagnostic et Analyse de l'Existant · Recueil des besoins : Animation d'ateliers avec les équipes Risques pour identifier les attentes et les leviers d'amélioration. · Audit des "Pain Points" : Identification des points de friction du dispositif actuel (processus, outils, qualité de donnée). · Benchmark de place : Analyse comparative des pratiques du secteur (organisation, gouvernance) et veille sur les cas d'usage de l'IA dans la gestion des risques. Phase 2 : Définition de la Cible (Target Operating Model) · Scénarios de Plateforme : Proposition de différents scénarios d'architecture et de services pour la plateforme cible. · Gouvernance des Données : Définition de la chaîne de responsabilité, de validation et de gouvernance de la donnée. · Pilotage : Spécification des tableaux de bord de suivi de la qualité des données (du niveau opérationnel jusqu’au Corporate Center). · Organisation & RH : Estimation des besoins en effectifs (FTE) et cartographie des compétences nécessaires pour opérer la cible. Phase 3 : Cadrage Opérationnel et Plan de Déploiement · Feuille de route : Élaboration d'un plan d'actions structuré par chantiers. · Gestion des dépendances : Articulation étroite avec le programme interne spécifique et les impératifs du projet BCBS 239. · Planning & Gouvernance Projet : Définition des jalons clés, des étapes de validation interne et mise en place des instances de pilotage. 4. Livrables attendus · Rapport d’analyse d’écarts et benchmark de place. · Dossier de définition de la plateforme cible et de l’organisation associée. · Schéma de gouvernance et de responsabilité des données. · Feuille de route détaillée (Roadmap) et planning d'implémentation. · Estimation budgétaire et dimensionnement des équipes (FTE). 5. Profil recherché · Expertise Métier : Solide expérience en gestion des risques (Crédit, Valeur Résiduelle, Opérationnel) dans le secteur financier. · Expertise Réglementaire : Maîtrise approfondie des exigences BCBS 239. · Culture Data/IA : Capacité à projeter l'utilisation de l'IA pour l'industrialisation des contrôles métiers. · Soft Skills : Excellence en gestion de projets transverses, capacité à fédérer des interlocuteurs variés (Risque, Finance, IT, Data). · Atout majeur : Expérience opérationnelle dans le secteur du crédit à la consommation automobile (captives).
Freelance
CDI

Offre d'emploi
Data Engineer GCP / Spark – Plateforme Data (H/F)

Etixway
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
40k-65k €
400-600 €
Paris, France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur des médias, nous recherchons un Data Engineer confirmé pour intervenir au cœur d’une plateforme data stratégique. Tu rejoindras une équipe en charge de la collecte, la centralisation et la transformation de données issues de sources hétérogènes , avec des enjeux forts de volumétrie, de performance et de qualité. Tes principales missions : Concevoir, développer et maintenir des pipelines data robustes et scalables Assurer l’ ingestion et la transformation de données multi-sources Optimiser les performances des traitements (Spark / SQL) Orchestrer les flux de données via Airflow Structurer et organiser le stockage des données Participer à l’ industrialisation des traitements (CI/CD, infrastructure) Garantir la qualité, la sécurité et la fiabilité des données Contribuer aux échanges techniques et à l’amélioration continue des pratiques
Freelance
CDI

Offre d'emploi
🔎 Data Engineer Senior – Apache NIFI / Databricks (H/F)

UCASE CONSULTING
Publiée le
Apache NiFi
Azure
Databricks

1 an
40k-45k €
400-550 €
Île-de-France, France
Bonjour à tous 😀 🚀 Contexte de mission Nous recherchons un Data ingénieur - Référent technique Nifi et Data , vous intervenez au sein d’une équipe Data & IA sur des environnements critiques à forte volumétrie. L’objectif : concevoir, optimiser et sécuriser les flux de données dans un contexte de production exigeant, avec des enjeux forts de continuité de service . 🎯 Vos missions Développer et maintenir des pipelines de données (Apache NIFI / Databricks) Optimiser les flux existants (performance, fiabilité, scalabilité) Assurer le RUN et le support (HNO / 24-7) Mettre en place et améliorer les processus CI/CD Superviser les traitements (monitoring, alerting) Participer aux études techniques et POC Produire la documentation et les reportings d’incidents Être force de proposition sur l’ amélioration de l’architecture data ✅ Must Have Expertise Apache NIFI Très bonne maîtrise de Databricks Expérience solide sur Azure Bon niveau en Python & Spark Expérience en environnement de production critique (RUN / incidents) Connaissance CI/CD (Git / GitLab) Expérience en monitoring (type DataDog) Bonne maîtrise des bases de données (PostgreSQL) Expérience en Agile / Scrum ➕ Nice to Have Connaissance AKS (Kubernetes) Expérience avec Zookeeper Background sur des projets data à forte volumétrie Culture DevOps / automatisation avancée
CDI
Freelance

Offre d'emploi
Business Analyst - Data (H/F)

STORM GROUP
Publiée le
SEPA
SWIFT

3 ans
55k-60k €
550 €
Île-de-France, France
· Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité · Animer des groupes de travail avec les sponsors, les business analyst du SI Paiement et les membres de la squad Flux (data viz, data engineer, business analyst) · Rédaction des livrables : spécifications fonctionnelles et techniques / user story, cahiers de recette · Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner · Formation et accompagnement des utilisateurs.
Freelance
CDI

Offre d'emploi
Data Analyst Sur Le Havre

EterniTech
Publiée le
Elasticsearch
Microsoft Power BI
Qlik

3 mois
Le Havre, Normandie
Je cherche pour un de mes clients un Data Analyst / Data Engineer qui interviendra sur la définition, la mise en place et l’évolution de solutions de gestion de données , en assurant l’ingénierie, l’analyse et la valorisation des données pour répondre aux besoins métiers. Missions principales : Définir, mettre en place et faire évoluer des datalakes et datawarehouses Ingénierie et intégration de données pour le jumeau numérique et l’ IA Développer des modèles de data science adaptés aux besoins métiers Produire des tableaux de bord et valoriser les données via les outils BI ( Qlik, Microsoft Power BI ) Consolider et développer le catalogue de données existant Mettre en œuvre et optimiser des moteurs de recherche et d’indexation avancée ( Elasticsearch – expertise obligatoire ) Activités transverses : Analyser l’existant et conduire des ateliers méthodologiques Préconiser normes et standards technologiques Définir, dimensionner et chiffrer des solutions Mettre en œuvre des pipelines de données et des architectures big data Suivre la mise en œuvre et assister les équipes projet Assurer le transfert de compétences et l’accompagnement méthodologique Rédiger rapports d’études, cahiers des charges techniques et documentations Réaliser des audits et améliorer les processus Effectuer la veille technologique et fournir du conseil stratégique
Freelance
CDI
CDD

Offre d'emploi
Business Analyst SharePoint Online (Fonctionnel)- intranet

RIDCHA DATA
Publiée le
Business Analyst
Intranet
SharePoint Online

1 an
Île-de-France, France
📍 Localisation : Île-de-France / Hybride 📅 Démarrage : ASAP ⏳ Durée : Mission longue 🌍 Contexte international 🚀 Contexte de la mission Dans le cadre de la refonte d’un intranet global sous SharePoint Online (Microsoft 365) , nous recherchons un Business Analyst fonctionnel pour accompagner les équipes métiers dans la définition et la mise en place d’une plateforme moderne et collaborative. 👉 L’objectif : proposer une expérience utilisateur fluide, homogène et adaptée à un environnement international. 🎯 Votre rôle En tant que Business Analyst fonctionnel , vous êtes l’interface clé entre les métiers et les équipes IT, avec une forte orientation recueil de besoin et conception fonctionnelle (pas de technique / pas de développement). 🧩 Vos missions principales 🔍 Analyse & cadrage Recueillir et analyser les besoins métiers Animer des ateliers avec les différentes parties prenantes Formaliser les besoins (user stories, use cases, parcours utilisateurs) Identifier les axes d’amélioration des processus existants 📝 Conception fonctionnelle Rédiger les spécifications fonctionnelles Structurer le contenu : navigation, taxonomie, métadonnées Contribuer à la définition de l’expérience utilisateur (UX) Construire et gérer le backlog fonctionnel 🤝 Coordination & accompagnement Faire le lien entre métiers et équipes techniques Participer aux phases de recette (tests fonctionnels, UAT) Accompagner le changement (supports, communication, formation) 🌍 Environnement international Interagir avec des équipes internationales Assurer la cohérence entre besoins locaux et standards globaux 🛠️ Environnement fonctionnel SharePoint Online (Microsoft 365) Outils collaboratifs (Teams, etc.) Méthodologie Agile / Scrum
CDI

Offre d'emploi
Actuaire - Data Scientist - Prévoyance H/F

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

42k-75k €
Strasbourg, Grand Est

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Hive
Apache Spark
Hadoop

3 ans
38k-43k €
300-400 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
CDI
Freelance

Offre d'emploi
Data Scientist Senior — Expert IA Générative

Craftman data
Publiée le
AWS Cloud
IA Générative
Large Language Model (LLM)

12 mois
Seine-Saint-Denis, France
Data Scientist Senior — Expert IA Générative Minimum 5 ans en Data Science, dont 2+ ans en IA Générative AWS (GCP accepté si expertise confirmée) Mon client recherche un expert Data Scientist avec une forte orientation IA Générative, capable d'agir à la fois comme référent technique et comme ambassadeur de l'IA auprès des parties prenantes métiers et IT. Ce profil doit être un véritable catalyseur du changement, prêt à faire bouger les lignes et à ancrer une culture de l'IA au sein du groupe. 1. Expertise IA Générative & Data Science ▸ Définir et appliquer les méthodologies, bonnes pratiques et standards liés à l'IA Générative (LLM, RAG, fine-tuning, prompt engineering, agents autonomes…) ▸ Concevoir, développer et déployer des modèles et solutions d'IA Gen adaptés aux enjeux d'EDF ▸ Assurer une veille technologique active et identifier les opportunités d'innovation ▸ Garantir la qualité, la robustesse et l'éthique des approches IA mises en œuvre 2. Identification & Portage des Cas d'Usage ▸ Explorer et qualifier de nouveaux cas d'usage IA Générative, tant pour les métiers qu'en interne à la DSIN ▸ Challengeur les approches IA existantes et proposer des alternatives plus performantes ou innovantes ▸ Construire des preuves de concept (PoC) et accompagner le passage à l'échelle ▸ Prioriser les cas d'usage selon leur faisabilité technique et leur valeur business 3. Animation & Communication ▸ Interagir avec les acteurs clés (Directions métiers, DSI, Comité de Direction) pour présenter les travaux et défendre les orientations IA ▸ Animer des ateliers de co-construction et des sessions de sensibilisation à l'IA Générative ▸ Vulgariser des concepts techniques complexes pour des audiences non spécialistes ▸ Participer activement aux instances de gouvernance IA du groupe 4. Transformation & Acculturation ▸ Impulser une dynamique de transformation autour de l'IA au sein de la DSIN et de ses partenaires ▸ Contribuer à la construction d'une feuille de route IA ambitieuse et réaliste ▸ Mentorer et monter en compétences les équipes internes sur les sujets IA Gen ▸ Être force de proposition pour faire évoluer les pratiques et les organisations PROFIL RECHERCHÉ Compétences techniques indispensables ▸ Maîtrise avancée des techniques de Data Science : machine learning, deep learning, NLP, statistiques ▸ Expertise confirmée en IA Générative : LLM (GPT, Llama, Mistral…), RAG, agents, orchestration (LangChain, LlamaIndex…) ▸ Expérience sur AWS (SageMaker, Bedrock, Lambda…) — GCP (Vertex AI, BigQuery ML) accepté ▸ Maîtrise des langages Python et des frameworks IA/ML (PyTorch, HuggingFace, scikit-learn…) ▸ Connaissance des pratiques MLOps et de déploiement en production (CI/CD, monitoring de modèles) Savoir-être & posture attendus ▸ Excellentes qualités de communication orale et écrite, capacité à vulgariser et convaincre ▸ Leadership d'influence : capacité à embarquer sans autorité hiérarchique ▸ Curiosité intellectuelle, esprit d'initiative et goût pour l'innovation ▸ Appétence forte pour le changement et volonté de faire évoluer les pratiques dans un grand groupe ▸ Rigueur, autonomie et capacité à gérer plusieurs sujets en parallèle Expériences valorisées ▸ Expériences dans des secteurs régulés ou à forte contrainte (énergie, industrie, finance, santé…) ▸ Participation à des projets IA d'envergure avec mise en production effective ▸ Contribution à des communautés IA (publications, conférences, open source…)
1389 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous