Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 003 résultats.
Freelance
CDI

Offre d'emploi
Scrum Master Data Senior

Tritux France
Publiée le
Agile Scrum
Azure Data Factory
Azure DevOps

3 ans
54k-58k €
550-580 €
Paris, France
Objectifs de la mission : Uniformiser les pratiques Agile sur l’ensemble du périmètreStabiliser et sécuriser les cycles de sprint Améliorer la qualité du backlog et des User Stories · Structurer les processus de production, d’arbitrage et de communication Mettre en place un pilotage clair : capacité, consommés, KPIs, roadmap Assurer la synchronisation et la gestion des dépendances inter squads Périmètre d’intervention Animation des rituels : daily, refinements, poker plannings, sprint plannings, reviews, rétros Vision prévisionnelle de la capacité et du backlog sur les prochains sprints · Construction d’une roadmap consolidée Amélioration de la qualité des US : découpage, prérequis, critères d’acceptation Mise en place / harmonisation de la Definition of Ready et Definition of Done Alignement des pratiques entre les équipes · Production des release notes et mise en place des KPIs de delivery Standardisation des checklists de livraison / reprise de données (UAT, OAT, PRD) · Analyse de charge, détection d’anomalies, gestion proactive des risques · Mise en place d’un reporting clair et régulier vers la Data Factory.
CDD

Offre d'emploi
BI / IT Specialist (H/F) - 94

MP Advertising
Publiée le
BI
Data modelling
ERP

6 mois
50k €
Val-de-Marne, France
Nous recherchons un BI / IT Specialist pour gérer et faire évoluer le système d’agrégation des factures du système à l’échelle EMEA. Ce poste se situe à l’interface entre la Business Intelligence, l’IT et la Finance, avec pour objectif de garantir la fiabilité des traitements de données, la cohérence des mappings et une intégration fluide avec les systèmes locaux et le système central du Groupe. Le candidat jouera un rôle clé dans la maintenance du système, la qualité des données et la coordination des développements techniques. Gestion du système & traitement des données Superviser les flux de données et garantir leur qualité entre les systèmes locaux et le système Groupe ; Accompagner l’intégration de nouveaux ERP / entités dans Eden. Mapping & gestion des données de référence (Master Data) Maintenir la logique de mapping (produits, clients, données financières) et assurer l’alignement avec les systèmes MES et MDM ; Gérer la création et le cycle de vie des codes produits (création, mise à jour, retrait). Clôture mensuelle & validation des données Piloter le processus de clôture mensuelle dans le système Eden : de l’intégration des factures jusqu’au traitement et à la transmission vers le MES du montant correct du chiffre d’affaires net EMEA ; Coordonner les activités de clôture mensuelle en assurant la cohérence avec le reporting financier ; Investiguer et résoudre les anomalies de données (factures manquantes ou incorrectes, incohérences de référentiel, problèmes de paramétrage produit) ; Valider les données dans les rapports définis par le management, notamment ceux de la Finance ainsi que d’autres départements (ex : reportings Marketing type MBR, planification financière (DOP), etc.) ; Collaborer avec les équipes support IT pour identifier les problèmes et proposer des solutions ; Valider les améliorations livrées dans son périmètre (validation finale sous la responsabilité du Head of Finance BI). Coordination de projets & collaboration IT Proposer de manière proactive des pistes d’amélioration et d’évolution des outils et reportings existants ; Faire le lien entre les équipes métiers et IT pour les évolutions et nouveaux développements ; Coordonner les projets, réaliser les tests (UAT) et valider les livrables ainsi que la documentation IT.
Freelance

Mission freelance
Data Scientist IA

Tritux France
Publiée le
Algorithmique
Keras
Large Language Model (LLM)

3 ans
350-400 €
Île-de-France, France
Socle technique – Data Science & IA Maîtrise de Python et SQL/BigQuery ; packaging, gestion des dépendances, clean code Maîtrise des algorithmes de ML : classification, régression, clustering, deep learning Connaissance des frameworks ML : Scikit-learn, TensorFlow/Keras, PyTorch Compétences avancées en GenAI : LLM, RAG, fine-tuning, prompt engineering, évaluation et déploiement de modèles génératifs Connaissance des concepts clés : Generative AI, agents, assistants, hallucinations, biais, limites des modèles Expertise en agents intelligents : conception de workflows multi-agents, frameworks (ADK, Gemini Enterprise…) Maîtrise des méthodes d'évaluation des agents et pipelines RAG (RAGAS, Langfuse, LLM as a judge) Développement back-end & intégration Conception et développement d'API REST/JSON, architecture orientée objet Développement d'applications GenAI : intégration agents/RAG, gestion de prompts et templates, itération Tests automatisés, revue de code, observabilité (logs, métriques, traces), gestion des erreurs Industrialisation & DevOps Maîtrise des pratiques DevOps/MLOps : CI/CD, Docker, Kubernetes, Git Mise en place et maintenance de pipelines (tests, qualité, déploiement) et gestion des environnements (dev/recette/prod) Architectures Cloud (GCP, AWS, Azure) et outils MLOps associés Monitoring et optimisation des performances de solutions IA en production Collaboration & méthodes Capacité à cadrer un besoin, proposer une solution technique et estimer une charge Travail en mode Agile, interaction avec les parties prenantes produit Anglais courant (lecture de documentation, échanges techniques)
Freelance

Mission freelance
Expert Collibra technico-fonctionnel

Inventiv IT
Publiée le
Agile Scrum
AWS Cloud
Collibra

5 mois
660-720 €
Paris, France
Nous recherchons un expert Collibra technico-fonctionnel avec plus de 15 ans d'expérience dans le cadre d'une mission au forfait avec engagement de résultat sur une période de 5 mois. Dans un contexte groupe avec un socle Data existant, une dizaine de direction métiers et un outil Collibra mise en place. Certifications requises Certification Collibra Certification Agile / Scrum Certification RGPD / CNIL Profil recherché Expérience (15 ans d'expériences minimum) Minimum 10 ans d’expérience data Minimum 4 ans en Data Governance Expérience significative sur Collibra (implémentation et exploitation) Mise en place de workflows automatisés (au moins 2) Expérience d’intégration avec des SI (connecteurs, APIs…) Compétences techniques Collibra (configuration, workflows, administration) Data Governance & Data Catalog Data Engineering / BI / Data Management Environnements : Databricks, AWS, outils de metadata (Collate…) Méthodologies Agile (Scrum) Certifications requises Certification Collibra Certification Agile / Scrum Certification RGPD / CNIL Soft skills Autonomie et rigueur Capacité d’analyse et de proposition Excellentes compétences en communication Capacité à interagir avec des profils techniques et métiers Organisation & environnement Encadrement : Product Owner Data Catalog Interaction avec équipes Data (DSI, Data Factory) Mode de travail hybride : Non négociable 3 jours/semaine sur site (Paris) 2 jours/semaine en télétravail Entretien technique en présentiel à Paris Modalités Mission au forfait avec engagement de résultat Suivi mensuel via livrables et compte-rendu d’activité Validation régulière en COPIL
Freelance

Mission freelance
Consultant Architecte BI / Data – Boulogne-Billancourt (92)

Mon Consultant Indépendant
Publiée le
Azure
Azure Synapse
Data Lake

1 mois
350-400 €
Boulogne-Billancourt, Île-de-France
Consultant Architecte BI / Data – ERP M3 / Azure 📍 Boulogne-Billancourt (92) 🏢 Présentiel (5j / semaine) ⏱ 6 mois renouvelables – temps plein 💰 TJM : 550 € HT 🚀 Démarrage ASAP Objectif :Structurer une architecture décisionnelle robuste et fiabiliser les plateformes BI dans un environnement complexe. Mission : Définition et mise en œuvre de l’architecture BI / data Stabilisation et optimisation des environnements existants Intégration des flux ERP Movex / M3 , SQL Server, Netezza Déploiement data sur Azure (Synapse, Data Lake) Structuration du reporting ( Power BI, MicroStrategy ) À savoir Présence sur site requise. Mission technique et structurante, avec attendu fort sur delivery et stabilisation rapide.
Freelance

Mission freelance
Data Engineer

Orcan Intelligence
Publiée le
DBT
Docker
ETL (Extract-transform-load)

3 mois
400-500 €
Paris, France
Dans le cadre du développement de solutions data à l’échelle de l’entreprise, nous recherchons un Data Engineer Senior. Vous interviendrez sur la conception et la mise en œuvre de solutions de data warehouse, en manipulant de grands volumes de données structurées et non structurées. Vous collaborerez étroitement avec les architectes data et les équipes métier afin de traduire les besoins en solutions techniques robustes et performantes. Missions principales Traduire les besoins métier en spécifications techniques Développer des flux ETL (outils natifs type TPT, SQL et outils tiers comme DBT) Rédiger et optimiser des requêtes SQL complexes et scripts shell Concevoir et développer des pipelines de données (batch et streaming) Mettre en place des solutions d’ingestion de données à faible latence Définir et implémenter des processus d’intégration dans l’environnement IT Superviser les performances et recommander des optimisations Rédiger et maintenir la documentation technique Interagir avec les clients pour affiner les besoins Supporter les équipes projet et delivery
CDI

Offre d'emploi
Lead Data H/F

CELAD
Publiée le

45k-50k €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Lead Data H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez dans un environnement Data structuré, organisé en squads, avec des enjeux forts autour de la gouvernance, de la qualité et de la valorisation des données. En lien étroit avec les équipes Data (Data Engineers / Data Analysts) et les métiers, vous jouez un rôle clé dans le pilotage des initiatives Data et dans le déploiement des bonnes pratiques de gouvernance et de conformité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Piloter et animer les travaux Data en coordination avec les équipes Data et les métiers - Collecter, prioriser et organiser les besoins Data des squads - Assurer le suivi de la mise en œuvre des solutions Data - Participer au cadrage des projets et garantir le respect du cadre Data (gouvernance, protection, BI) - Accompagner les équipes sur les sujets de Data Management et de Data Privacy (RGPD) - Animer les échanges et assurer un reporting régulier auprès des parties prenantes
CDI
Freelance

Offre d'emploi
Architecte Big Data IA

CHARLI GROUP
Publiée le
Gouvernance
IA
Natural Language Processing (NLP)

3 ans
Paris, France
1. Contexte du service : Cette mission vise à établir un cadre complet pour la gestion des données non structurées afin de soutenir les initiatives axées sur les données et l'IA. Elle a pour objectif de définir des normes, des règles et des cadres garantissant la fiabilité et la réutilisabilité des données, et facilitant ainsi le déploiement de solutions de données et d'IA évolutives grâce à la collaboration avec les parties prenantes concernées. Cette activité comprend le pilotage d'approches innovantes, la consolidation des enseignements tirés et la garantie de l'alignement avec les stratégies de données globales. 2. Périmètre du service: : Développement du socle méthodologique de la gestion des données non structurées, aligné sur les meilleures pratiques du secteur. Définition et documentation des normes, règles et cadres garantissant la qualité, la cohérence et la réutilisabilité des données. Coordination avec les parties prenantes internes pour recueillir leurs retours et assurer l'alignement avec les objectifs stratégiques. Tests pilotes de cadres de données non structurées innovants et intégration des enseignements tirés dans les pratiques opérationnelles. Évaluation des fournisseurs de technologies, analyse comparative des solutions et recommandation d'outils et de plateformes adaptés. Évaluation des techniques de traitement de documents (OCR, NLP, VLM), de la gestion des métadonnées, des ontologies et des solutions de bases de données vectorielles. Accompagnement des initiatives de transformation liées à l'utilisation des données à des fins d'IA et d'analyse. 3. Prestations de service: Un cadre méthodologique complet pour la gestion des données non structurées. Des normes, politiques et règles documentées pour la qualité des données, les métadonnées et l'architecture des données. Des rapports sur les projets pilotes, incluant les enseignements tirés et les meilleures pratiques. Des rapports d'évaluation des fournisseurs et des analyses comparatives. Une documentation technique sur les techniques de traitement de documents et les méthodes de transformation des données. Des recommandations concernant les outils, les plateformes et les plans de mise en œuvre alignés sur les besoins opérationnels.
Freelance

Mission freelance
Architecte Data Power BI

SQLI
Publiée le
Microsoft Power BI

6 mois
400-600 €
Paris, France
Bonjour, Pour le compte de l'un de mes clients dans le secteur de l'énergie, je suis à la recherche d'un archi data orienté Power BI. Le Data Architecte sera en charge a minima des activités suivantes : -Recueillir et traduire en solutions techniques le besoin métier/utilisateur (modèle, mesure, rapports), -Définir l’architecture cible et les principes de modélisation, -Proposer les choix techniques et assurer la fiabilité des flux d’alimentation (Power Query, ETL, …), -Gérer les ajouts de nouvelles sources de données, -Surveiller les chargements et traiter les incidents de données, -Gérer les workspaces et droits d’accès, -Superviser les performances et la conformité sécurité et RGPD, -Rédiger le dossier d’architecture avec l’appui du Chef de projet Rte pour l’intégration de l’application au SI de l’entreprise, -Appliquer les standards et bonne pratiques (naming, structuration des workspaces, gestion des environnements, sécurité, …), -Supervision la performance et la scalabilité de l’application (volumétrie, temps de réponses, …), -Accompagner les utilisateurs sur la prise en main de Power Bi.
Freelance
CDD

Offre d'emploi
Architecte Big Data / Expert Databricks (H/F)

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

6 mois
75k-90k €
700-750 €
Île-de-France, France
Dans un contexte d’accélération des projets data et de modernisation des plateformes analytiques, notre client recherche un Architecte Big Data / Expert Databricks H/F; Votre rôle sera clé pour concevoir des architectures data modernes, optimiser les performances et les coûts, tout en accompagnant les équipes dans leur montée en compétences. Vos missions Concevoir des architectures Big Data / Modern Data Stack robustes et scalables Réaliser des études techniques et cadrages des besoins data Définir et valider des architectures data sur Databricks et AWS Conduire des audits de performance et de code Produire des dossiers d’architecture (6 à 8 par an) Élaborer des supports de formation (10 à 12 par an) Animer des sessions de formation et de montée en compétences Rédiger des comptes-rendus d’audit (4 à 6 par an) Conseiller sur les bonnes pratiques d’optimisation des coûts et des performances
Freelance
CDI

Offre d'emploi
🔎 Tech Lead Data (Snowflake / dbt) & Power BI

OMICRONE
Publiée le
Azure Data Factory
CI/CD
DBT

2 ans
40k-45k €
400-500 €
Île-de-France, France
🔎 Tech Lead Data (Snowflake / dbt) & Power BI Dans le cadre du renforcement d’une équipe Data & Analytics, nous recherchons un Tech Lead Data & BI pour piloter la delivery technique de produits data et solutions de visualisation, dans un environnement moderne et industrialisé. 🎯 Vos missions • Piloter la chaîne data de bout en bout : Snowflake → dbt → modèle sémantique → Power BI • Définir et faire appliquer les standards techniques (modélisation, qualité, performance, gouvernance) • Encadrer la revue de code , les pratiques CI/CD et l’industrialisation des pipelines • Concevoir et maintenir les modèles data et datamarts sous Snowflake • Développer et structurer les projets dbt (modèles, tests, documentation) • Mettre en place des pipelines robustes (orchestration, contrôles qualité, runbooks) • Définir les bonnes pratiques Power BI (modèle sémantique, performance, RLS, templates) • Participer au run : gestion des incidents, post-mortems, amélioration continue • Accompagner et faire monter en compétences les équipes (France & offshore) 🧩 Profil recherché • Expérience confirmée en tant que Tech Lead Data / BI • Excellente maîtrise de Snowflake et du data modeling • Expertise avancée sur dbt (modélisation, tests, documentation) • Solide expérience sur Power BI (modélisation, performance, gouvernance, RLS) • Bonne connaissance des environnements Azure Data Factory • Capacité à définir des standards et à structurer une équipe • Excellentes compétences en communication 🛠 Compétences clés • Snowflake (expert) • Data Modeling / BI Modeling (expert) • dbt (avancé) • Power BI (confirmé) • Azure Data Factory • CI/CD, data quality, gouvernance data
Freelance

Mission freelance
Senior Data engineer IA (H/F)

CHARLI GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

2 ans
400-610 €
Île-de-France, France
Dans le cadre de son plan de transformation Data, le groupe poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing Pour répondre à cet enjeu, le groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI, ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour, dont une part majoritaire en temps réel. Description du poste : Notre environnement de travail combine rigueur, une ambiance décontractée au sein des équipes, et des méthodes Agiles (Scrum et Kanban). Votre mission principale, si vous l'acceptez, consistera à intervenir sur des architectures de Streaming Data et IA full AWS (notamment Lambda, Step Function, Kinesis Stream, S3, Batch, Firehose, EMR Serverless, DynamoDB, etc.), ainsi que sur des technologies comme Scala, Spark, SQL, Snowflake, GitLab CI/CD, DBT, Airflow, Terraform. Vous serez amené à : Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Rejoignez une équipe dynamique où innovation et expertise se rencontrent !
Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Freelance
CDI

Offre d'emploi
Data Engineer IA

Craftman data
Publiée le
DevOps
Docker
Github

6 mois
40k-45k €
390-540 €
Île-de-France, France
Maintien en condition opérationnelle et industrialisation du Portail Multi‑IA Générative dans un contexte multi‑environnements (On‑Premise, GCP, cloud de confiance à venir). Mise en œuvre et optimisation des chaînes CI/CD (GitLab), de l’Infrastructure as Code (Terraform) et de l’automatisation des déploiements. Contribution à la sécurité, conformité et observabilité des usages IA générative (IAM, secrets, logs, metrics, traces, FinOps). Mise en place et exploitation des pratiques LLMOps : observabilité LLM, évaluations continues (qualité, sécurité, coûts), guardrails et HITL. Conception et préparation de la V2 du Portail IA (architecture cible, HLD/LLD, migration). Support technique N2/N3, analyse et résolution d’incidents, assistance aux mises en production. Production de la documentation technique (runbooks, playbooks, architectures) et transfert de compétences vers les équipes internes.
Freelance

Mission freelance
Data Business Analyst (H/F)

Insitoo Freelances
Publiée le
Confluence
JIRA
Python

2 ans
370-420 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Business Analyst (H/F) à Lyon, France. Contexte : Entité chargée de la Supervision et de la Gestion des Incidents dans le but de garantir la performance en production. Le profil recherché intègrera l’équipe en charge du suivi des performances en production, de la télédistribution des logiciels sur le parc, de la création de tableaux de bords. Date de début souhaitée : 04/05/2026 Du fait de la montée en compétence la prestation est attendue sur une durée relativement longue. Les missions attendues par le Data Business Analyst (H/F) : Activité principale Le profil recherché sera en charge de : • Suivre et analyser un ou plusieurs indicateur(s) de performance à la maille nationale et DR, expliquer leurs variations et mettre en place des actions d'amélioration associées • Réaliser des tableaux de bords de pilotage ou opérationnels de suivi de performance • Consolider les données et reporter les analyses associées aux variations de performances • Maîtriser le fonctionnement • Suivre l'ensemble des évènements de production • Préparer, animer et/ou représenter la production dans les différents comités • Comprendre, analyser, préparer, construire et animer des points autour de(s) l’indicateur(s) de performance avec les différentes parties prenantes. • Investiguer de manière autonome des anomalies ou signaux faibles dans les données, en identifiant des pistes d’analyse non prévues initialement • Challenger les processus existants et proposer des axes d’optimisation basés sur les analyses réalisées • Identifier et activer des leviers d’amélioration en coordination avec des équipes contributrices (métiers / techniques) • Assurer un rôle de référent sur l’indicateur en étant force de proposition sur son évolution (méthode de calcul, périmètre, pertinence) • Contribuer à l’amélioration continue des pratiques d’analyse et de pilotage de la performance au sein de l’équipe Activité secondaire • Suivi de performance dans le cadre de pilote et expérimentation • Suivi de performance sur des périmètres dédiés en fonction des actualités de production • Capitalisation et partage de connaissances (rédaction documentaire) • Rédiger et diffuser le reporting cross chaine quotidien Stack technique de l'équipe : Tableau Desktop, JIRA / Confluence, Suite Office (notamment Excel, Powerpoint et Teams), SQL et Python
Freelance

Mission freelance
Architecte Data & IA

VISIAN
Publiée le
Azure
Databricks

1 an
400-550 €
Île-de-France, France
Contexte de la mission Dans le cadre de la modernisation de sa plateforme Data & Intelligence Artificielle, un grand groupe du secteur assurance / services financiers recherche un Architecte Data & IA Senior afin d’accompagner la transformation de son socle technologique vers une plateforme unifiée, gouvernée et prête pour les usages IA avancés. L’objectif est de renforcer les fondations techniques permettant : L’industrialisation rapide des cas d’usage IA / Machine Learning La cohérence des environnements MLOps / LLMOps La montée en maturité des équipes DataOps, Delivery et Engineering L’intégration future de solutions Agentic AI Missions principalesArchitecture & Gouvernance Technique Définir les architectures cibles Data & IA pour les usages analytiques, ML et GenAI Faire évoluer l’offre de services de la plateforme Data & IA Superviser la mise en place d’un catalogue de données unifié (gouvernance, sécurité, lineage, partage, FinOps) Structurer le cadre d’architecture : sécurité, traçabilité, observabilité, conformité Garantir la cohérence technique entre les environnements Data, IA et systèmes métiers Accompagnement des équipes Encadrer les équipes DataOps / MLOps sur les bonnes pratiques CI/CD, automatisation et monitoring Accompagner la montée en compétence sur les technologies cloud & data platform Collaborer avec les équipes Delivery pour fiabiliser les pipelines de production Participer au transfert de connaissances et à la documentation des standards Innovation & Modernisation Préparer la plateforme à l’exposition de Data Products fédérés Définir une approche AI by Design intégrant conformité et gouvernance Concevoir les architectures d’intégration de LLM internes ou hybrides Piloter des initiatives autour de : IA Observability AI FinOps / Cost Control Temps réel / streaming data Automatisation intelligente
5003 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous