Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 114 résultats.
Freelance
CDI

Offre d'emploi
Coordinateur de projet Data (Luxembourg)

EXMC
Publiée le
Gestion de projet

1 an
Luxembourg
Le consultant intègrera l’équipe Data qui a en charge la mise à disposition des données pour les différents consommateurs Data du client (BI, Data Scientists, équipes métiers, etc.). Dans ce cadre, le consultant interviendra en qualité de Coordinateur de Projet sur la gestion « end-to-end » des projets Data, depuis l’analyse et la formalisation des besoins métiers jusqu’à la livraison finale des données, en coordination avec les équipes techniques et métiers concernées. · Planifier, organiser et diriger les projets de l’initiation à la clôture. · Assurer le suivi de l’avancement des projets et la gestion des risques. · Coordonner les équipes internes et externes, veillant à une communication efficace et à la collaboration entre les parties prenantes. · Assurer la liaison entre les équipes techniques et les utilisateurs pour garantir une compréhension mutuelle des exigences et des solutions. · Collaborer avec les équipes de développement pour s’assurer que les solutions proposées sont mises en oeuvre conformément aux spécifications. · Proposer des solutions adaptées aux points bloquants identifiés et participer à leur validation. · Faciliter les réunions de travail de projet, les ateliers de travail et les sessions de revue. · Préparer et présenter des rapports d’avancement aux parties prenantes.
CDI
Freelance

Offre d'emploi
Data Engineer senior

Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue

1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
Freelance
CDI
CDD

Offre d'emploi
Développeur Back-End Senior orienté IA (Python / Data / API) – H/F

SMARTPOINT
Publiée le
API REST
Machine Learning
MLOps

1 an
50k-60k €
400-500 €
Île-de-France, France
Dans le cadre du développement de solutions innovantes à forte valeur métier, nous recherchons un Développeur Back-End Senior orienté Intelligence Artificielle pour rejoindre une Dev Factory IA . Vous interviendrez sur la conception et le développement d’applications intégrant des composants data et intelligence artificielle , au sein d’équipes pluridisciplinaires composées de développeurs, data engineers, data scientists et experts métier . Votre mission consistera à concevoir, développer et industrialiser des services applicatifs et des briques d’intelligence artificielle , dans un environnement technique exigeant en matière de performance, scalabilité et fiabilité . Vos missions Développement Back-End et IA Concevoir et développer des API REST et/ou GraphQL robustes, sécurisées et performantes Implémenter des services d’exposition de modèles d’intelligence artificielle (inférence, scoring, prédictions) Développer des traitements data répondant aux besoins métiers Architecture applicative et data Participer à la définition des architectures applicatives et data/IA Concevoir des solutions scalables, modulaires et maintenables Appliquer les bonnes pratiques d’architecture logicielle (SOLID, séparation des responsabilités) Gestion des flux de données Traiter et exposer des données issues de différentes sources : bases de données relationnelles bases NoSQL APIs externes pipelines de données Garantir la qualité, la traçabilité et la performance des flux Intégration et mise en production des modèles IA Intégrer les modèles développés par les équipes data Mettre en production des services d’inférence Gérer les versions des modèles et suivre leurs performances Anticiper les problématiques de dérive des modèles Industrialisation et CI/CD Contribuer au dépôt GitLab Participer aux revues de code Mettre en place et maintenir des pipelines CI/CD Automatiser les processus de tests et de déploiement Qualité et tests Développer des tests unitaires, d’intégration et de performance Garantir la fiabilité et la stabilité des services applicatifs et des composants IA Sécurité applicative et data Mettre en œuvre les bonnes pratiques de sécurité : authentification autorisation chiffrement protection des données sensibles Collaboration agile Participer aux rituels Scrum Collaborer avec les équipes data, front-end, produit et DevOps Documentation et amélioration continue Documenter les architectures, APIs, pipelines data et processus de déploiement Contribuer à la veille technologique et à l’amélioration des pratiques de développement
Freelance

Mission freelance
Warranty AI Change & Scaling Manager

Codezys
Publiée le

12 mois
Lyon, Auvergne-Rhône-Alpes
Objectifs et livrables Ce rôle vise à garantir que les capacités de garantie basées sur l'intelligence artificielle (IA) soient bien comprises, approuvées et appliquées sur tous les marchés. Il sert de pont entre la politique de garantie, les solutions d'IA et les réalités du marché, en traduisant les insights de l'IA en décisions conformes, comportements cohérents et résultats commerciaux mesurables au niveau des marchés et concessionnaires. Responsabilités principales Leadership du changement et adoption : Préparer les marchés et concessionnaires à l'utilisation de l'IA dans les processus de garantie (formation, communication, cartographie des rôles et plans d'adoption). Influencer les parties prenantes dans plusieurs pays européens, éliminer les obstacles à l'adoption et obtenir leur adhésion sans autorité directe. Mettre en œuvre des interventions pour encourager les comportements appropriés dans la gestion des garanties et opérations concessionnaires. Déploiement et activation des marchés : Planifier et exécuter le déploiement des capacités d'IA en adaptant aux caractéristiques du marché, leur maturité, contexte réglementaire, et réseau de concessionnaires. Collaborer avec les gestionnaires pour intégrer l'IA dans les flux décisionnels quotidiens. Produire des guides, aides professionnelles et FAQ pour simplifier les règles complexes. Traduction IA-garantie et gouvernance : Interpréter les recommandations de l'IA dans le contexte des conditions de garantie. Identifier les écarts entre modèles d'IA, politique de garantie et pratiques du marché, proposer des clarifications ou des améliorations produits. Participer à la mise en place de garde-fous pour la qualité des données, la confidentialité et l'utilisation responsable de l'IA en accord avec la gouvernance centrale. Mesure et amélioration continue : Définir et suivre des métriques d'adoption et de comportement (ex: conformité, temps de décision, cohérence). Conduire des expérimentations (A/B, pilotes) pour mesurer l'impact, en tirer des recommandations et prioriser les améliorations. Mettre en place des boucles de rétroaction avec les équipes IA/IT pour optimiser la performance et l'expérience utilisateur. Gestion des parties prenantes et communications : Collaborer avec les responsables de l'initiative, propriétaires de produits, data scientists, équipes IT, conformité, formation et gestionnaires de marché. Fournir des communications claires et des updates exécutifs sur l'adoption, les risques et la valeur ajoutée.
Freelance

Mission freelance
Data Ingénieur H/F

Insitoo Freelances
Publiée le
Google Cloud Platform (GCP)
HFSQL
Microsoft Power BI

2 ans
309-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Ingénieur H/F à Lille, France. Contexte : Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Les missions attendues par le Data Ingénieur H/F : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité Intègre les éléments Structure la donnée (sémantique, etc.) Cartographie les éléments à disposition Nettoie la donnée (élimination des doublons, ) Valide la donnée Éventuellement, il crée le référentiel de données SES LIVRABLES : Data Lake approprié et partagé et son dimensionnement Cartographie des données Les éléments permettant de garantir la qualité de la donnée
CDI
Freelance

Offre d'emploi
Product Owner IA (H/F)

STORM GROUP
Publiée le
IA

3 ans
50k-60k €
500-600 €
Île-de-France, France
Principales missions : • Vision & Stratégie Produit IA : Porter la vision produit des solutions d’IA en étroite collaboration avec les équipes métier. Cela inclut d’identifier les opportunités d’usage de l’IA au service du Risque, du Paiement, du Digital et des autres lignes métiers, et de prioriser les projets en conséquence (focus valeur et faisabilité). • Gestion du Backlog & Priorisation : Être garant de la priorisation des initiatives Data Science/IA. Vous traduisez les besoins métier en features et user stories, alimentez et maintenez le backlog, et arbitrez les priorités en fonction de la valeur ajoutée attendue, du feedback utilisateur et des contraintes (réglementaires, techniques, ROI). Votre objectif est de maximiser l’impact business de chaque sprint livré. • Pilotage du Delivery Agile : Piloter la delivery des projets IA en méthodologie agile. Vous organisez et animez les cérémonies Scrum/Kanban (planification, revues, démonstrations, rétrospectives), suivez l’avancement des développements, et assurez la levée des obstacles en coordination avec les autres départements. Vous veillez au respect des engagements de qualité, budget et délais, et communiquez de manière proactive sur l’avancement auprès des sponsors. • Coordination Métiers–Data–IT : Jouer le rôle d’interface et de facilitateur entre les équipes Data Science, les équipes IT (architectes, MLOps, sécurité…) et les métiers sponsors. Vous travaillez en collaboration étroite avec les experts métier pour co-construire les solutions et favoriser leur adoption, tout en intégrant les contraintes techniques avec les équipes Data/IT pour une implémentation fluide. • Crédit & Risque (Scoring) – Use cases « Machine Learning » traditionnels : Sur ce pilier clé, vous pilotez les évolutions des modèles de scoring crédit (scoring d’octroi, scores comportementaux). En lien direct avec les équipes Risque et Validation, vous concevez et suivez les projets d’optimisation des scores existants et le développement de nouveaux modèles, en explorant des approches innovantes (par ex. nouvelles données, algorithmes avancés). Vous vous assurez que les modèles délivrés contribuent à la stabilité du coût du risque (suivi des KPIs de performance) et respectent les exigences réglementaires. Vous veillez également à la mise en production et au monitoring de ces modèles (détection de dérive, recalibrage), en collaboration avec les Data Scientists et Analystes Risque. • IA Générative & Agents : Vous explorez et déployez les cas d’usage liés à l’IA Générative pour transformer nos processus internes et la relation client. Concrètement, vous pilotez des projets d’agents IA (chatbots avancés, assistants cognitifs, systèmes à base de LLM, approches RAG – Retrieval-Augmented Generation). Par exemple, vous pourrez lancer des MVP d’agents pour automatiser l’analyse de documents complexes, assister les équipes internes (Audit, Marketing…) ou enrichir le support client. Vous définissez les objectifs et indicateurs de succès de ces projets, supervisez les étapes de prototypage et de déploiement en production, et veillez à mettre en place des architectures agentiques robustes pour ces solutions. Vous aurez aussi à cœur d’évaluer et optimiser les performances de ces agents (cohérence des réponses, pertinence, diversité), en vous appuyant sur des méthodologies de pointe (par ex. LLM as a Judge pour la qualité des réponses). L’enjeu est de concrétiser les promesses de l’IA générative tout en garantissant un usage responsable et efficace pour l’entreprise.
Alternance

Offre d'alternance
Machine Learning Engineer - Pricing (f/m/d) - Alternance

█ █ █ █ █ █ █
Publiée le
Apache Spark
DevOps
Docker

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Développeur Python IA

VISIAN
Publiée le
Agent IA
Natural Language Processing (NLP)
Python

1 an
Paris, France
Vous serez en charge du développement, de l'intégration et de l'optimisation des modèles d'intelligence artificielle pour les différents use cases métiers. Vous travaillerez en mode agile en proximité avec les Data Scientists, les architectes solutions, les équipes métier et IT des autres filiales de la banque. Vous aurez un rôle clé dans l'industrialisation et le déploiement des solutions IA en production. Expert en vibe coding, vous maîtrisez parfaitement les outils d'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer le développement tout en maintenant des standards de qualité élevés. Vous êtes capable de décomposer des problèmes complexes en instructions claires pour l'IA et de valider/optimiser le code généré. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire.
Freelance

Mission freelance
[FBO] Product Owner Technique IA

ISUPPLIER
Publiée le
Docker
Large Language Model (LLM)
Openshift

3 ans
Île-de-France, France
Contexte Dans le cadre du développement et de l’industrialisation de services d’IA générative à destination de multiples entités métiers, nous recherchons un profil capable d’assurer l’ ownership technique d’un produit de type RAG as a Service . L’environnement s’inscrit au sein d’une organisation structurée autour d’une équipe d’environ 20 experts , répartis sur plusieurs pôles d’activité : Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office et Client Services . Le contexte technique comprend notamment : plus de 15 plateformes Data Science / MLOps en production , en environnements cloud et on premise ; une base de 600+ utilisateurs Data Scientists ; plusieurs infrastructures, plateformes et services d’ IA générative déjà en production ; un GRID de GPU on premise utilisé pour l’entraînement et l’inférence ; des pratiques établies de DevSecOps, GitOps, MLOps et LLMOps ; un fort niveau d’ automatisation autour des APIs d’infrastructure, des plateformes Kubernetes / OpenShift et des produits. Missions principales En tant que Technical Owner / Product Owner Technique , vous serez responsable de la cohérence technique, de la trajectoire produit et de la bonne exploitation du service. À ce titre, vos principales missions seront les suivantes : contribuer à l’ élaboration technique et fonctionnelle du produit IA qui vous sera confié, en lien étroit avec les équipes de Solutions Engineering pour la veille et l’évolution des usages, ainsi qu’avec les équipes DevSecOps pour son industrialisation ; garantir le respect des exigences de sécurité, conformité et confidentialité , ainsi que l’alignement avec les standards de production IT en matière d’ observabilité, auditabilité, traçabilité et contrôle des accès ; définir et mettre en œuvre les mécanismes techniques de gouvernance permettant aux entités utilisatrices ou à leurs équipes IT d’opérer le produit dans un cadre maîtrisé ; construire, maintenir et enrichir la feuille de route technique du produit afin d’assurer une création de valeur continue, en cohérence avec les besoins des utilisateurs et des métiers ; accompagner au quotidien les utilisateurs, interlocuteurs métiers et équipes IT , et veiller à la bonne adoption des bonnes pratiques d’usage du produit ; superviser les opérations critiques liées aux changements, déploiements et mises à jour, avec une vision de bout en bout des impacts sur les différents services gérés ; organiser et documenter la gestion des incidents , notamment via l’analyse des causes racines, la coordination inter-équipes et l’amélioration continue ; être force de proposition dans l’ optimisation des processus internes et dans l’alignement avec les autres équipes du domaine IA & Data ; représenter la relation technique avec les fournisseurs et partenaires contribuant à l’évolution du produit, qu’il s’agisse d’éditeurs, d’équipes d’industrialisation ou d’équipes d’infrastructure. Environnement technique Le poste s’inscrit dans un environnement technologique riche, comprenant notamment : Docker / Kubernetes / OpenShift frameworks de calcul distribué : Spark, Ray, Dask, OpenMPI GPU Computing : CUDA, Rapids, NIMs, NeMo environnements de Data Science : Python, Conda, R (optionnel) développement en Python Shell scripting MLflow / Kubeflow outils CI/CD, DevSecOps et GitOps : HashiCorp Vault, GitLab, GitLab CI, Artifactory, ArgoCD, Argo Workflows
Freelance

Mission freelance
Expert DevOps & MLOps / Administrateur infrastructure

HAYS France
Publiée le
Artifactory
Bash
Docker

3 ans
400-600 €
Île-de-France, France
Dans le cadre de sa prestation, l’intervenant évoluera au sein de la Direction Data , plus spécifiquement dans l’équipe AI Delivery , en charge d’accompagner les métiers et les pays dans leurs projets de data science, d’analyse avancée et dans la mise en production de cas d’usage IA. Équipe internationale, dynamique et structurée comme une « start‑up interne », AI Delivery réunit l’ensemble des compétences nécessaires à l’industrialisation des modèles et à la gestion de plateformes Data & MLOps. L’organisation compte plus d’une dizaine de Data Scientists, de MLOps engineers, de DevOps et d’ingénieurs spécialisés. AI Delivery met à disposition plusieurs plateformes stratégiques, dont : Une plateforme DataScience et de scoring , Sparrow Score, au cœur des modèles métiers. Une plateforme d’exécution des modèles , Sparrow Serving. Une plateforme d’orchestration , Sparrow Flow. Une plateforme d’exploration et de développement Python , Sparrow Studio. Un framework d’industrialisation “type CI/CD” permettant l’automatisation du déploiement des modèles. Un outil de Community Management , Sparrow Academy. Le cloud privé , garantissant haute disponibilité et sécurité. L’équipe développe et maintient ces environnements pour garantir qualité, performance, conformité et disponibilité des modèles et applicatifs IA en production. L’intervenant assurera une prestation d’Assistance Technique afin d’accompagner l’évolution continue de ces plateformes et leur excellence opérationnelle.
Freelance

Mission freelance
UX Designer

Codezys
Publiée le
Design system
Figma
UX design

12 mois
280-350 €
Lille, Hauts-de-France
Contexte de la mission L’équipe UX, dirigée par le Head of UX, comprend huit designers spécialisés (UX Research, UX Design, UI) qui interviennent sur le design de produit, d’expérience et de services. Elle collabore avec une quinzaine de domaines, en contact direct avec responsables, leaders digitaux, produits et développeurs. Adhérant à une méthodologie agile, elle utilise un design system mature, essentiel pour intégrer efficacement des fonctionnalités IA et assurer une cohérence globale. Une équipe sous la direction du Head of Design OPS, composée de quatre profils (UI, développement front-end), maintient et évolue le Design System en intégrant notamment les normes liées à l’IA, telles que l’automatisation, la documentation et les MCPs. Objectifs et livrables Compétences requises : Solide culture technique (IA, data engineering, développement, DevOps) Compréhension des profils techniques (développeurs, data scientists) Maîtrise de la conception UI et des design systems Cadrage & gestion de projet : Analyser et reformuler les besoins Définir la méthodologie, le planning et les livrables Coordonner avec les parties prenantes Recherche utilisateur & analyse : Conduire interviews, observations et questionnaires Créer des personae Analyser comportements utilisateurs Conception UX/UI : Définir parcours utilisateurs et expérience cible Structurer l’architecture de l’information Réaliser wireframes, maquettes et prototypes Rédiger spécifications fonctionnelles Tests & amélioration continue : Organiser tests utilisateurs Analyser retours et optimiser interfaces Participer aux phases de recette Design system & outils : Maintenir et optimiser le design system Automatiser liens entre Figma, GitHub et Storybook Créer plugins et outils (QA, documentation) Collaboration & leadership : Animer workshops (design thinking, user journey) Accompagner les équipes UI Participer à la stratégie UX globale Veiller sur l’UI et l’IA Livrables attendus : Maquettes et prototypes Parcours utilisateurs (UJM, flows) Personae et wireframes Documents de cadrage et supports pédagogiques Indicateurs de performance : Satisfaction utilisateurs et parties prenantes Respect des délais Qualité de l’expérience utilisateur Contribution aux objectifs (OKR) Implication dans l’équipe de design
Freelance

Mission freelance
Data Engineer - Lille

ICSIS
Publiée le
Apache Kafka
CI/CD
DBT

2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
CDD
CDI
Freelance

Offre d'emploi
 Ingénieur Marchine Learning (ML)

KEONI CONSULTING
Publiée le
Gitlab
Python
SQL

18 mois
20k-60k €
100-500 €
Paris, France
Contexte La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateur et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basée sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Créer un premier cas d’usage en lien avec la personnalisation de l’expérience utilisateur 2. Déployer ce projet et AB tester en production 3. Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la mission consiste à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience dans un environnement data / machine learning Expériences dans le déploiement en production de modèles de machine learning Expériences sur la Google Cloud Platform Expériences avec des technologies de type Flask ou FastAPI Maîtrise des langages Python et SQL Solides connaissances en data : structures de données, code, architecture Connaissances de l’infrastructure-as-code (Terraform) Connaissances du Machine Learning, des concepts liés à l’IA Connaissances des technologies liées à l’IA : tensorflow, sklearn etc Connaissances de Gitlab et Gitlab CI/CD Capacité à vulgariser et à communiquer sur des aspects purement techniques Pratique des méthodes Agile : de préférence Scrum ou Kanban
Freelance
CDI

Offre d'emploi
Data Modelisation sur Paris

EterniTech
Publiée le
BigQuery
Merise

3 mois
Paris, France
e cherche pour un de mes clients un Data Modelisation Description du besoin : OBJET DE LA PRESTATION : DATA MODELER - PROGRAMME DE TRANSFORMATION DATA B2B NOM DU PROJET : TRANSFORMATION DATA B2B Senior Data Analyst / Data Modeler (B2B) Cadre et environnement (Contexte général du projet) Dans le cadre du programme de transformation de la Data B2B (Agite Data), le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir, en mode agile, le socle technique et les données de référence (RCU, Pivots) qui serviront ensuite aux Squads Métiers pour bâtir leurs cas d'usages Définition de la prestation (Objet & Périmètre de la prestation) Le Prestataire agira en tant que Référent Modélisation & Connaissance de la Donnée. Il fera le lien entre les Experts Métiers et le Lead data engineer agile. 1) Conception du "Core Model" : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) en cible sur BigQuery (Modèles en étoile / Data Vault). 2) Règles de Gestion RCU : Définir et prototyper (en SQL) les règles de rapprochement (Matching/Merging) permettant de lier les données techniques (ex: ND) aux données légales (SIREN/SIRET). 3) Archéologie de la Donnée : Analyser les sources Legacy (Oracle) pour identifier les règles implicites et cartographier les écarts avec la cible. 4) Gouvernance & Dictionnaire : Rédiger les définitions fonctionnelles directement dans le Data Catalog d'AIDA (Métadonnées BigQuery) et le Data Catalog Métier (ODG = Open Data Guide) pour garantir l'autonomie des futures Squads. 5) Support aux Squads : Préparer des "Data Sets" certifiés pour faciliter le travail des Data Scientists et Analystes des Squads Métiers. Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Modélisation Cible Modèles Logiques de Données (MLD) validés par le Tech Lead. Mapping Source-to-Target détaillé. Itératif : 1er Draft RCU mi-Mars 2026 Définition du RCU (Vision 360) Spécification SQL des règles d'unicité client (Clés de réconciliation). Matrice de gestion des cas particuliers (Multi-comptes, Flottes). MVP RCU : Fin Mars 2026 Gouvernance des Données Dictionnaire de données (Business Glossary) intégré dans AIDA et ODG Règles de Qualité (DQ Rules) définies pour chaque objet métier Continu Exploration & Prototypage Requêtes SQL d'analyse d'impact. Datasets de test pour validation métier. A la demande Domaines de compétences et savoir faire de la société prestataire, nécessaires à la bonne réalisation de la prestation : Indispensable : Modélisation de Données Expert : Maîtrise des concepts théoriques (Merise, 3NF) et dimensionnels (Star Schema, Kimball). Capacité à simplifier des modèles complexes. SQL Avancé : Capacité à manipuler la donnée (Requetage complexe, Window Functions) pour valider ses propres modèles (pas de spécifications "papier" uniquement). Analyse Fonctionnelle : Capacité à dialoguer avec le Métier (Marketing, Finance) pour extraire les règles de gestion. Expérience avérée dans un cadre de travail Agile / Scrum. Connaissance su secteur B2B/ TELECOM : Compréhension des notions de Hiérarchie de comptes, Parcellaire, SIRET/SIREN. Connaissance de l’environnement BIGQUERY Savoir-être : Esprit de synthèse. Force de proposition (ne pas attendre que le métier dicte le modèle). Pragmatisme (livrer de la valeur incrémentale).
Freelance
CDI

Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake

EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Freelance
CDI

Offre d'emploi
Offre de mission Data Governance Manager – Stewardship & Adoption sur Bordeaux

EterniTech
Publiée le
Data governance
Microsoft Power BI
Snowflake

5 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes clients Data Governance Manager – Stewardship & Adoption Description du besoin : Poste : Data Governance Manager – Stewardship & Adoption Expérience : mini 5 ans en Data Gouvernance Partenaires et Freelances Quelques mots sur le contexte de la mission et l’équipe Chez le client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Contraintes techniques Bonne compréhension attendue des enjeux liés aux catalogues de données, aux métadonnées, à la documentation, à l’ownership, aux accès et aux usages. Maitrise de Snowflake et Power BI ou outils similaires Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub • TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents ; • capacité à structurer et animer une communauté de Data Stewards ; • capacité à embarquer des parties prenantes variées et à conduire le changement ; • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages ; • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation ; • approche pragmatique et orientée adoption / impact. Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
114 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous