L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 431 résultats.
Offre d'emploi
Product Owner IA Senior – Transformation des Centres de Relation Client
SMILE
Publiée le
Data analysis
Transformation digitale
3 mois
40k-58k €
400-550 €
Paris, France
Dans le cadre de ses travaux de transformation IA, un grand groupe bancaire français recherche un Product Owner Senior pour accompagner la transformation de ses Centres de Relation Clients (CRC) via l’intégration de cas d’usage IA à forte valeur ajoutée. Le PO sera intégré à une direction Data/IA transverse , en lien direct avec les équipes métier CRC, les UX designers, les experts data (data scientists, data engineers), les équipes IT et les établissements du réseau. Les Centres de Relation Client représentent un axe stratégique de la transformation de l’expérience client. L’enjeu est de structurer, prioriser et piloter des cas d’usage IA dans trois grands domaines : Traitement de la Voix (speech-to-text, détection d’intention, analyse d’émotion) ; Analyse des Mails et Courriers (NLP, routage intelligent, résumé, classification) ; Déploiement ou amélioration d’Agents conversationnels (LLM, chatbot, voicebot) . Le Product Owner sera directement responsable de la mise en œuvre de plusieurs projets IA sur ce périmètre.
Mission freelance
Directeur de projet IA
SURICATE IT
Publiée le
AI
Direction de projet
Large Language Model (LLM)
1 an
Paris, France
🚀 Mission Directeur de Projet IA 📍 Localisation : Paris centre ⏳ Durée : Longue ⚡ Démarrage : ASAP 🌍 Anglais : fluide 🎯 Profil : 10 Minimum 🧠 Contexte de la mission Dans le cadre d’un programme stratégique autour de l’IA générative , vous interviendrez en tant que Directeur de Projet pour piloter un dispositif innovant à forte visibilité. Ce programme vise à concevoir et déployer plusieurs solutions avancées : 🔎 Outils de veille augmentée en temps réel 🤖 Moteur de recherche multimodal (texte, image, vidéo) basé sur des architectures RAG ✍️ Assistant intelligent pour la production et transformation de contenus Le projet est mené en mode consortium avec plusieurs partenaires technologiques et s’inscrit dans un environnement exigeant mêlant innovation, data et produits digitaux. 🎯 Vos missions 🧩 Pilotage global du programme Piloter l’ensemble des volets du projet (planning, budget, risques, qualité) Assurer le respect des jalons et des livrables Mettre en place les indicateurs de suivi et proposer des actions correctives 🤝 Coordination des partenaires Animer un écosystème multi-acteurs (startups, experts techniques, métiers) Organiser et piloter les comités projets Faciliter les arbitrages techniques et organisationnels 👥 Management des équipes & métiers Coordonner les équipes techniques et fonctionnelles Animer les ateliers de cadrage et de spécifications Garantir l’alignement avec les enjeux métier et produit ⚙️ Intégration & delivery Superviser l’intégration des briques IA dans les environnements existants Piloter les phases de tests, validation et mise en production Garantir la qualité des solutions livrées 📊 Reporting & gouvernance Assurer le reporting interne et externe Produire les éléments de suivi projet et de pilotage stratégique Gérer les interactions avec les parties prenantes institutionnelles 🏢 Environnement Organisation structurée avec interactions multiples (tech, produit, métier) Travail en collaboration étroite avec des équipes expertes Présence régulière sur site + échanges fréquents à distance
Offre d'emploi
Consultant Data Analyst Direction Financière F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Oracle Database
Python
SQL
Puteaux, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Responsible AI Lead
ESENCA
Publiée le
Agent IA
Data quality
Large Language Model (LLM)
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la Responsible AI Lead pilote la gouvernance de l’intelligence artificielle et garantit la conformité, la sécurité, l’éthique et la maîtrise des risques des systèmes IA. Encadrement Management d’une équipe spécialisée pouvant inclure : Analyste Responsible AI & Traçabilité Responsable Contrôles & Tests IA (QA IA) AI Policy Manager Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Fonctions conformité (DPO, RSSI, juridique) Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, agents, etc.) Cabinets spécialisés (audit, conformité, IA) Mission Le/la Responsible AI Lead est garant(e) de la gouvernance globale des systèmes d’intelligence artificielle. Il/elle s’assure que les cas d’usage respectent les exigences réglementaires et internes (notamment en matière de conformité, d’éthique, de sécurité et de gestion des risques), tout au long de leur cycle de vie, du cadrage au run. Responsabilités principales 1. Gouvernance et conformité IA Définir et déployer la politique d’usage de l’IA Structurer le cadre de gouvernance (standards, processus, rôles) Classifier les cas d’usage selon leur niveau de risque Définir les exigences de documentation, traçabilité et versioning 2. Gestion des risques IA Conduire les analyses de risques par cas d’usage Classifier les systèmes selon leur criticité (faible, limité, élevé) Définir les contrôles adaptés (tests, supervision, documentation) Coordonner les validations avec les fonctions conformité (juridique, DPO, sécurité) 3. Contrôles et tests IA Définir les stratégies de tests non fonctionnels : robustesse biais sécurité hallucinations dérive des modèles Fixer les critères de validation (go / no-go) Superviser les campagnes de tests IA 4. Documentation et audit Piloter la documentation réglementaire des systèmes IA Maintenir un registre des cas d’usage IA Organiser les audits internes et externes Suivre les plans de remédiation 5. Supervision en production Définir les exigences de monitoring (logs, incidents, dérives) Suivre la performance et la fiabilité des systèmes IA Mettre en place des revues périodiques Piloter la gestion des incidents IA 6. Pilotage des coûts (FinOps IA) Définir les règles de consommation (quotas, garde-fous) Suivre les coûts et l’efficience des solutions IA Recommander des optimisations 7. Diffusion des bonnes pratiques Déployer la charte éthique IA Sensibiliser et former les équipes aux enjeux de l’IA responsable Accompagner les équipes projets dans l’application des standards Promouvoir une culture de l’IA responsable à l’échelle de l’organisation
Offre d'emploi
Devops IA - Cloud &MLops
VISIAN
Publiée le
AI
AWS Cloud
CI/CD
3 ans
45k-70k €
500-700 €
Montpellier, Occitanie
Contexte et environnement Le pôle conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités d'un grand groupe bancaire. Le poste s'inscrit au sein de l'équipe GenAI du domaine d’expertise Data & IA, avec pour mission de concevoir des offres IA à l'échelle dans des environnements Cloud public ou privé. Périmètre d'intervention Le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production. Le candidat évoluera dans un environnement technique complexe, distribué, sécurisé et hautement disponible, au sein d'une équipe dédiée aux produits et services d'intelligence artificielle. Missions principales Mise en œuvre opérationnelle et technique des produits IA : Apporter une expertise technique et participer à la conception des architectures IA Industrialiser et automatiser le déploiement de plateforme agentique dans un environnement on premise ou cloud Participer à la mise en place de services managés en intégrant les contraintes de sécurité, compliance et gouvernance Documenter les offres et services et assurer leur mise en production Démontrer la valeur des offres d'IA générative auprès des entités/clients internes Réaliser des présentations et démos pour promouvoir les offres et services Participer aux daily meetings animés par le Product Owner Contribuer aux réunions de co-construction de la roadmap Prendre en charge les éléments de la backlog formalisée par le Product Owner Assurer le lead technique sur un produit au sein de la squad Participer à l'ensemble des rituels de la squad, de la plateforme et du pôle Participer aux astreintes techniques du pôle Compétences métiers requises Expérience en déploiement et manipulation du workload data Maîtrise des stacks IA sur AWS, GCP et/ou on-premise, avec expérience en déploiement de processus MLOps et LLMOps Maîtrise des fondamentaux de conteneurisation et des pratiques CI/CD Expérience dans le développement de projets AI/ML, d'exploitation et d'optimisation de produits IA Connaissance approfondie des meilleures pratiques en matière de sécurité des données et de conformité Environnement technique Cloud et Infrastructure : AWS (EKS, Sagemaker, Bedrock), GCP (GKE, Vertex AI), stack on premise, Kubernetes, Openshift, Docker Développement et Automatisation : Terraform, Python, SQL, Ansible, Jenkins, GitLab CI, Kestra Data et IA : Artifactory (Jfrog), orchestration de workload IA (Dataiku ou MLflow), bases de données vectorielles (Opensearch, RDS, Elastic Search, PG Vector, MongoDB Atlas) Observabilité : Dynatrace, CloudWatch, Prometheus, Grafana, X-Ray (appréciées) Compétences comportementales Excellent relationnel Agilité Esprit d'équipe Force de proposition Rigueur et sens de l’organisation
Offre d'emploi
Expert Google Workspace Data & IA
Management Square
Publiée le
BigQuery
Google Workspace
IA Générative
1 an
47k-55k €
480-530 €
Niort, Nouvelle-Aquitaine
Expert Senior Google Workspace, Data & IA Contexte de la mission : Dans le cadre d’un programme de transformation digitale, nous recherchons un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA . Le profil recherché est un consultant hybride à forte valeur ajoutée , capable d’administrer l’environnement collaboratif, d’analyser la donnée d’usage (BigQuery / Looker), de développer des solutions d’automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique afin de mesurer l’adoption des outils et la performance des processus métiers Data Analysis (BigQuery) Exploitation avancée des données (logs d’audit Google Workspace, données métiers) via requêtage SQL optimisé Structuration des tables et gestion des coûts de stockage et de calcul Pilotage RSE & Usages Définition et mise en place d’indicateurs de suivi sur l’infobésité et l’hyperconnexion Contribution aux démarches de Qualité de Vie au Travail (QVT) et de sobriété numérique Volet IA Générative (Gemini) & Innovation Centre d’Expertise IA Contribution à la structuration du centre d’expertise IA Rôle de référent technique et fonctionnel sur la solution Gemini Acculturation & Animation Animation d’une communauté d’ambassadeurs IA Organisation de webinars , rédaction de guides de bonnes pratiques et identification de cas d’usage à forte valeur ajoutée Intégration Métier Déploiement de solutions IA opérationnelles : assistance rédactionnelle synthèse documentaire assistants virtuels adaptés aux besoins métiers Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité Administration avancée de la console Google Workspace Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes cybersécurité Automatisation des Processus Développement d’applications métiers via AppSheet (Low-code) Développement de Google Apps Script pour automatiser les tâches manuelles et remplacer des fichiers Excel complexes Transition Office vers Google Accompagnement technique et méthodologique pour la migration des outils Microsoft (Excel / VBA) vers l’écosystème Google (Sheets / Apps Script / BigQuery) Posture AMOA / PO Assistance au Product Owner dans : la définition de la roadmap produit la rédaction de User Stories la conduite du changement
Offre d'emploi
Offre de mission Data Governance Manager – Stewardship & Adoption sur Bordeaux
EterniTech
Publiée le
Data governance
Microsoft Power BI
Snowflake
5 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes clients Data Governance Manager – Stewardship & Adoption Description du besoin : Poste : Data Governance Manager – Stewardship & Adoption Expérience : mini 5 ans en Data Gouvernance Partenaires et Freelances Quelques mots sur le contexte de la mission et l’équipe Chez le client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Contraintes techniques Bonne compréhension attendue des enjeux liés aux catalogues de données, aux métadonnées, à la documentation, à l’ownership, aux accès et aux usages. Maitrise de Snowflake et Power BI ou outils similaires Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub • TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents ; • capacité à structurer et animer une communauté de Data Stewards ; • capacité à embarquer des parties prenantes variées et à conduire le changement ; • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages ; • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation ; • approche pragmatique et orientée adoption / impact. Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
Mission freelance
Tech Lead Data – Snowflake et Modern Data Stack (H/F)
Lùkla
Publiée le
Snowflake
1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement de sa plateforme data, nous recherchons un Tech Lead Data pour piloter la conception et l’évolution d’une Modern Data Stack performante et scalable. Vos missions Définir et piloter l’architecture data basée sur Snowflake Mettre en place les standards de modélisation, gouvernance et sécurité Structurer les pipelines d’ingestion et de transformation (dbt, Fivetran) Déployer les bonnes pratiques d’industrialisation (CI/CD, tests, qualité) Optimiser la performance et les coûts de la plateforme (FinOps) Encadrer techniquement les équipes data et accompagner leur montée en compétence Contribuer à la roadmap data et aux sujets d’innovation (IA notamment) Environnement technique Snowflake dbt Fivetran Power BI Azure DevOps
Mission freelance
Lead Delivery IA
Sapiens Group
Publiée le
GenAI
MLOps
12 mois
500-520 €
Lille, Hauts-de-France
Responsabilités principales 1. Cadrage et qualification des cas d’usage Animer les ateliers de cadrage avec les métiers Évaluer la faisabilité fonctionnelle et l’effort de delivery Définir les critères de succès (valeur, adoption, qualité, risques) Intégrer les exigences liées aux données, à la traçabilité et aux contrôles 2. Pilotage du delivery & coordination multi-acteurs Construire et piloter le plan de delivery (jalons, sprints, capacité, risques) Orchestrer l’ensemble des parties prenantes (métiers, IT, data, IA) Garantir la qualité des livrables fonctionnels (backlog, spécifications, comptes-rendus de décisions) 3. Recette & décision go/no-go Préparer et animer les revues de jalons Organiser la recette fonctionnelle (UAT) et définir les critères d’acceptation Coordonner les validations finales avec les parties prenantes 4. Adoption, déploiement & mesure de la valeur Définir et piloter le plan de déploiement (pilote, généralisation, support) Contribuer à la formation, communication et support avec le Performance Lab Mettre en place et suivre les KPI d’usage (adoption, fréquence, satisfaction) Mesurer la valeur générée (gains de temps, qualité, réduction des risques) Piloter l’amélioration continue via des boucles de feedback 5. Qualité & fiabilité Définir les règles de qualité fonctionnelle des solutions IA Mettre en place des contrôles et un suivi des écarts 6. Industrialisation & réutilisation Capitaliser sur les retours d’expérience (REX) Standardiser les bonnes pratiques (copilots, agents IA, RAG) Contribuer à la création de templates et référentiels de delivery IA Compétences requises Compétences techniques Bonne connaissance des solutions GenAI (copilots, agents IA, RAG) : fonctionnement, limites, hallucinations Compréhension des principes MLOps (niveau utilisateur / consommation) Compréhension fonctionnelle des architectures RAG Connaissance de la structuration des données pour l’IA (Golden Data, référentiels) Compétences transversales Formation Bac +5 (ingénieur, data science, digital, produit ou SI) Expérience en environnement transverse (métiers, DSI, data, IA) Compétences en Product Management : roadmap, backlog, priorisation, MVP Maîtrise des méthodologies Agile (Scrum, Kanban) Pilotage multi-projets et gestion des dépendances Compétences AMOA : expression de besoins, animation d’ateliers, rédaction de spécifications Culture data, IA et processus métiers Langues Français : courant Anglais : intermédiaire (B1/B2) – environnement international Livrables attendus Dossier de cadrage (valeur, périmètre, KPI, risques, dépendances) Backlog et roadmap (priorisation, MVP, jalons) Spécifications fonctionnelles (règles métier, conformité, UX) Plan de recette et procès-verbal (PV) Plan de déploiement et d’adoption (avec Performance Lab) Retours d’expérience (REX) et templates de delivery IA
Offre d'emploi
ARCHITECTE PORTAIL IA
GROUPE ALLIANCE
Publiée le
Docker
FastAPI
Github
80k-85k €
75001, Paris, Île-de-France
ACCROCHE SI TU SAIS QUE L’INTELLIGENCE NE SE LIMITE PAS QU’À L’HUMAIN, CETTE ANNONCE EST FAITE POUR TOI... CE QUE TU RECHERCHES : Concevoir et structurer des architectures IA robustes Travailler sur des projets d’envergure en intelligence artificielle Relever des défis techniques dans des environnements complexes et innovants Tu veux être au cœur des décisions stratégiques et façonner l’IA de demain Rejoins une équipe où ton expertise en architecture IA sera essentielle. Au sein d’un acteur majeur du secteur Protection Sociale, tu participeras aux eévolutions fonctionnelles à apporter à l'architecture technique de la partie Front du portail IA permettant :- un accès sécurisé au catalogue d’assistant IA existant en fonction du profil de l’utilisateur- un parcours d’accueil pour les nouveaux utilisateurs ainsi qu’un accès à des modules de formation de type webinaire- un accès à une FAQTu conçois les évolutions fonctionnelles à apporter à l'architecture technique de la partie Back du portail IA permettant :- la création et l'exposition de nouveaux assistants IA par les utilisateurs avec contrôles d'accès- la maintenance et l'évolution des mécanismes de supervision et de suivi de consommation d'IA par les utilisateurs- la maintenance et l'évolution des mécanismes d'exposition des assistants IA en API pour utilisation par les applicatifs métiersTu conçois les évolutions fonctionnelles à apporter à l'architecture technique des mécanismes de RAG de la plateforme :- en concevant les architectures possibles de pipelines d'ingestions optimisés en fonction du type de documents en entrée et de leur volumétrie- en concevant et aidant à maintenir les mécanismes de la plateforme permettant de tracer la qualité des données ingérées- en concevant et aidant à maintenir les mécanismes de contrôles du profil utilisateur et des droits d’accès aux informations restituées par un assistant ou un agent IA- en participant à la définition des besoins en solutions de bases de connaissances spécialisées, externes ou intégrées au portail IA, en définissant le protocole et les mécanismes d'ingestion des mises à jour au fil de l'eau ou à intervalles réguliers.Tu définis ou fais évoluer la chaîne CI/CD permettant de livrer les évolutions du portail IA dans ses quatres environnements (en lien avec les autres équipes en charge de cette problématique à la DSI)- en assurant le paramétrage et la mise en oeuvre de la chaîne sur le cloud AZURE dans une logique DEVOPS- en maintenant à jour la documentation- en sécurisant les mécanismes de tests permettant de valider le déploiement d'une version ou pour garantir le retour arrière en cas de défaut constaté : Définition des architectures IA, tu piloteras Sélection des frameworks et technologies adaptées, tu assureras Déploiement et industrialisation des modèles IA, tu superviseras Optimisation des performances et gestion des ressources, tu garantiras Sécurisation des infrastructures IA, tu renforceras Veille technologique et anticipation des évolutions, tu effectueras Collaboration avec les équipes Data, DevOps et métier, tu animeras QUI TU ES : Diplômé(e) en informatique, intelligence artificielle ou équivalent Tu justifies d’une expérience de 10ans minimum en conception et déploiement d’architectures IA Maîtrise des frameworks IA : Microsoft Azure IA Expertise en cloud computing : SFEIR RAISE (RAG/GenAI), Visual Studio Code avec Github COPILOT, MS OFFICE Copilot, Python, Langchain, Docker + Kubernetes, LiteLLM + LLM AI Foundry, React, Typescript, TanStack, Microsoft AZURE AI Foundry, LangGraph, RAGAS, LangFuse, FastAPI + Celery/Redis, Serveurs MCP, Pipelines CI/CD (GitHub/Azure DevOps), Docker + Terraform, Microsoft AZURE API Management, Microsoft AZURE AI Foundry Maîtrise des problématiques de MLOps et d’industrialisation des modèles IA AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Visionnaire, tu anticipes les évolutions de l’IA et leurs impacts Méthodique, tu structures et documentes tes architectures avec rigueur Pragmatique, tu conçois des solutions adaptées aux besoins métiers Communicant(e), tu sais vulgariser des concepts complexes Curieux(se), tu es en veille permanente sur les dernières avancées IA Collaboratif(ve), tu travailles efficacement avec les équipes Data, DevOps et métier Orienté(e) performance, tu optimises chaque modèle pour maximiser son impact
Offre d'emploi
Data Governance Lead
Gentis Recruitment SAS
Publiée le
Data Mesh
6 mois
51k-91k €
560-1k €
Luxembourg
Nous recherchons un(e) Data Governance Lead pour piloter la mise en place et l’industrialisation de la gouvernance des données à l’échelle du Groupe, dans un contexte de transformation data stratégique. Rattaché(e) au Chief Data, Analytics & AI Officer (CDAO) , vous serez responsable de définir et déployer un cadre de gouvernance garantissant la qualité, la conformité et la valorisation des données . Vous interviendrez sur des sujets clés tels que les modèles de responsabilité (Data Mesh), la qualité des données, la gestion des métadonnées, la traçabilité et le cycle de vie des données. Vous collaborerez étroitement avec les équipes BI, Data, IA et IT afin d’assurer une utilisation fiable, éthique et performante des données. Vous jouerez également un rôle central dans la mise en conformité avec les réglementations (RGPD, Solvabilité II, CSSF, etc.) et dans l’animation des instances de gouvernance.
Offre d'emploi
Chef de Projet Assurance Retraite & Data (H/F)
FED SAS
Publiée le
60k-65k €
75001, Paris, Île-de-France
Fed IT, cabinet entièrement dédié aux recrutements spécialisés sur les métiers de l'informatique (Infra, Data, Développement, MOA, MOE, Management), recherche pour un de ses clients spécialisé dans le secteur de l'assurance retraite, un ou une : Chef de Projet Assurance Retraite & Data (H/F). Le poste est à pourvoir dans le cadre d'un CDI chez le client final. Au sein d'une DSI de 4 personnes, vous aurez la charge des projets des projets métiers de la structure, mais aussi des projets data et du reporting. Vous devrez fluidifier la relation entre la DSI et les métiers, de coordonner les projets, et répondre aux besoins des utilisateurs. A ce titre, vos principales missions seront : - Recueillir et formaliser les besoins des utilisateurs (Services Gestion, Analyse, Marketing, Communication, …) ; - Participer à la rédaction des cahiers des charges et des spécifications fonctionnelles & techniques ; - Etudier la faisabilité économique et technique des projets métiers & Data ; - Coordonner les parties prenantes (DSI, métiers, prestataires) ; - Suivre l'avancement des projets et assurer le reporting ; - Construire et maintenir les modèles de données ; - Développer les flux de données : extraction, transformation, chargement ; assurer la qualité des données : contrôles, corrections, cohérence, validation ; - Documenter les flux, modèles, règles et rapports sur les données ; - Créer des rapports et tableaux de bord (Power BI, Business Objects) ; - Accompagner les utilisateurs dans la conduite du changement ; - Participer à la priorisation des demandes et à la planification ; - Renforcer la qualité de service et l'efficacité opérationnelle notamment avec les projets IA ; - Assurer un support de qualité sur les solutions métiers & Data déployées…
Offre d'emploi
Cloud Data Engineer AWS H/F
VIVERIS
Publiée le
45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de projets stratégiques autour de la donnée et de l'intelligence artificielle, un grand groupe industriel renforce ses équipes afin de structurer et valoriser des données issues d'environnements industriels complexes. La mission s'inscrit dans une dynamique de construction et d'optimisation de plateformes data, avec des enjeux forts autour de la qualité, de la volumétrie et de l'exploitation des données pour des cas d'usage avancés (analytics, IA). L'environnement technique repose sur un écosystème cloud AWS, avec des outils modernes de data engineering tels que Databricks et Apache Spark, ainsi qu'une forte culture DevOps. Vous intégrerez une équipe en charge de l'ingestion, du traitement et de l'exposition de données à grande échelle. Responsabilités : - Concevoir et procéder à la maintenance des pipelines de données, de l'ingestion à l'exposition ; - Contribuer à l'optimisation des traitements de données à grande échelle et à la fiabilisation des flux ; - Collaborer avec les équipes data et IA afin de garantir la disponibilité et la qualité des données pour les usages analytiques et machine learning.
Offre d'emploi
Expert Data Cloud
ONSPARK
Publiée le
AWS Cloud
Azure
Docker
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Expert Data Cloud pour accompagner nos clients grands comptes. Vous interviendrez sur des projets de migration et d'exploitation de plateformes data vers le cloud, dans des contextes on-premise en cours de transformation, avec de fortes exigences en matière de sécurité et de conformité. Responsabilités Concevoir et déployer des architectures data sur le cloud Accompagner la migration des workloads data vers le cloud Optimiser les coûts et les performances des environnements cloud Assurer la sécurité et la conformité des données dans le cloud (RGPD, ISO 27001) Collaborer avec les équipes infrastructure, sécurité et data
Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance
Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud
12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
Mission freelance
Expert Looker Core (BI & Big Data)
Nicholson SAS
Publiée le
Big Data
BigQuery
Google Cloud Platform (GCP)
4 mois
700-900 €
Paris, France
Nous recherchons un Expert Looker pour accompagner l'un de nos clients majeurs dans le secteur du transport aérien, dans le cadre d'une étude stratégique sur ses outils de Dataviz.📋 Détails de la mission Démarrage : 04/05/2026 Durée : Jusqu'au 31/08/2026 (Visibilité sur Octobre 2026) Localisation : Paris ou Toulouse (Rythme hybride selon politique site) Expertise attendue : +5 ans d’expérience 🎯 Enjeux et Missions Au sein de la plateforme Data & AI Technology , vous interviendrez sur l'évaluation de Looker comme futur standard de Dataviz du Groupe (contexte de migration Cloud). Vos responsabilités : Accompagnement de POCs : Développement et support aux métiers dans la réalisation de leurs preuves de concept. Expertise Conseil : Apporter un regard critique sur l'architecture, la sécurité et l'optimisation FinOps . Formation & Pédagogie : Acculturation des utilisateurs métiers et échanges techniques avec les équipes IT (Ops, Architectes). Évaluation stratégique : Analyser la capacité de l'outil à répondre aux besoins d'analyses Ad-hoc, aux enjeux d'IA (Conversational Analytics) et au remplacement de solutions existantes (SAP BO, Spotfire). 🛠️ Compétences Requises Looker Core (Indispensable) : Maîtrise parfaite de l'outil (Note : Looker Studio est hors scope). Ecosystème GCP : Excellente maîtrise de BigQuery et du SQL . Culture Data : Compréhension des enjeux de migration "Data Move To Cloud". Soft Skills : Excellent relationnel, capacité à vulgariser des sujets complexes et pédagogie. Langues : Anglais courant (contexte international). Bonus : Une maîtrise de Power BI est un plus apprécié. 💰 Conditions financières TJM Paris : 900 € (selon profil) TJM Toulouse : 700 € (selon profil)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Retour d'expérience démission-reconversion
- Démission pour création d'entreprise rapide
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Offre fictifs et offre non sérieuses
431 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois