Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 84 résultats.
Freelance
CDI

Offre d'emploi
Data Scientist Senior – E-commerce Opération (H/F)

Publiée le
Apache Airflow
Google Cloud Platform (GCP)
Python

1 an
10k-58k €
100-580 €
Paris, France
Télétravail partiel
Nous recherchons un Data Scientist Senior (H/F) pour rejoindre l'équipe E-commerce, Marketing & Relation Clients d’un acteur du retail. 🎯 L’objectif ? Concevoir, industrialiser et améliorer des solutions de machine learning visant à optimiser la performance opérationnelle et commerciale du e-commerce : qualité des opérations, rentabilité, productivité et personnalisation client. Tu évolueras au sein du pôle Data Science Customer , dans un environnement agile, collaboratif et cloud-native , où les approches data-driven et l’innovation sont au cœur de la stratégie omnicanale du groupe. 🚀 Tes missions principales : Identifier, avec les équipes métier et opérationnelles, les cas d’usage data à fort impact business Explorer et fiabiliser les données : nettoyage, agrégation, étude ad-hoc et préparation de datasets Concevoir, implémenter et évaluer des modèles de machine learning et d’analyse prédictive Définir et conduire des protocoles de test en conditions réelles (magasins, entrepôts, plateformes logistiques) Industrialiser et maintenir les solutions dans les environnements cloud (CI/CD, monitoring, itérations) Assurer la transmission des bonnes pratiques et le mentoring de data scientists juniors Participer activement à la communauté Data Science du groupe (séminaires, retours d’expérience, veille technologique) 🔧 Environnement technique : Langages & outils : Python, SQL, Terraform, Docker, GitLab, Jenkins Cloud & Orchestration : Google Cloud Platform (GCP), Cloud Composer / Airflow, Cloud Run, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage Méthodologies : Agile / Scrum, itérations rapides, revue de code et bonnes pratiques DevOps
Freelance

Mission freelance
229374/Prompt Engineer Python IA générative- Toulouse (no remote)

Publiée le
IA Générative
Python

3 mois
Toulouse, Occitanie
Prompt Engineer Python IA générative - Toulouse Mission ciblé Data / IA/ Innovation / Produit => Prompt Engineer Goals and deliverables Conception de prompts efficaces : Rédiger, tester et optimiser des prompts pour interagir avec des modèles d’IA (LLMs comme GPT, Claude, Mistral, etc.). Adapter les prompts à différents cas d’usage : génération de texte, résumé, classification, extraction d’informations, etc. Collaboration avec les équipes métiers : Travailler avec les équipes produit, marketing, support ou développement pour comprendre les besoins et concevoir des solutions IA adaptées. Traduire les besoins métiers en instructions exploitables par les modèles. Expérimentation et veille technologique : Tester différents modèles et techniques de prompting (zero-shot, few-shot, chain-of-thought, etc.). Suivre les évolutions des modèles de langage et des outils IA. Documentation et standardisation : Documenter les prompts, les résultats et les bonnes pratiques. Créer une bibliothèque de prompts réutilisables. Évaluation des performances : Mettre en place des métriques pour évaluer la qualité des réponses générées. Identifier les biais, hallucinations ou erreurs et proposer des solutions. Expected skills Outils low-code et no-code Expert Python Expert data science Expert IA générative Expert
Freelance

Mission freelance
Expert Dév Python &IA ML- MLOps Sparrow

Publiée le
Amazon S3
API
API Platform

12 mois
550-660 €
Île-de-France, France
Télétravail partiel
Objectif : industrialiser les projets IA du développement à la mise en production via une approche MLOps complète et intégrée . ⚙️ Composants principaux Sparrow Studio Environnement code-first pour data scientists / analysts Stack : Go , Kubernetes, ressources dynamiques GPU/CPU Sparrow Serving Déploiement de modèles IA (API / batch) MLOps, monitoring, compliance Stack : Go , Kubernetes-native Sparrow Flow (poste concerné) Librairie propriétaire Python (cœur du framework MLOps Sparrow) Automatisation complète des pipelines IA (Docker, API, packaging, compliance, déploiement) Niveau technique avancé – forte exigence en Python backend Sparrow Academy Documentation, tutoriels, support utilisateurs Sparrow 🧠 Missions principales Prendre l’ ownership technique de la librairie Python Sparrow Flow Concevoir, maintenir et faire évoluer le framework MLOps interne Garantir la qualité, la performance et la scalabilité du code Participer à la définition des orientations techniques avec les leads Collaborer avec les équipes architecture, infrastructure et data science Contribuer à la documentation technique (Sparrow Academy) 💻 Environnement technique Langages : Python → Sparrow Flow Go → Sparrow Serving & Studio Terraform → Infrastructure Infra & Cloud : Cloud privé on-premise Kubernetes (déploiement & orchestration) S3 / MinIO / PX (Portworx) Argo, ArgoCD, Argo Workflows (CI/CD) Autres outils : Git, Artifactory, Model Registry Prometheus, Kibana PostgreSQL, MongoDB
Freelance
CDI

Offre d'emploi
Chef de projet Data

Publiée le
BigQuery
Data quality
Gestion de projet

6 mois
Île-de-France, France
Télétravail partiel
La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : Maximiser la collecte de données tout en respectant les réglementations en vigueur Développer la connaissance et l’expérience utilisateur Mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Afin d’assurer la coordination de l’ensemble de cas d’usages transverses aux pôles Data. Prestations attendues : En interaction avec l’ensemble de la direction data et des directions métiers consommatrices des données (Produit, Editorial, Partenariats, Marketing, Publicité….) , la prestation consistera à : La Gestion de la coordination intra Data : Assurer la transversalité Data pour les projets transverses entre les pôles (Technique, Intelligence, Mangement, et Gouvernance) Identification des actions pour chaque équipe Suivi des avancées et remontées des alertes Mise en place la coordination, la documentation, la comitologie projet Remontée au mangement le suivi de ces sujets transverses Gestion de la coordination inter Data : point d’entrée pour les principales directions métiers consommatrices des données, et responsabilité de la coordination des différents pôles Data avec les équipes métiers sur leurs besoins (Collecte, tracking, Dashboard, analyses,…) Identification des besoins Représentation de la data dans les instances de coordination projets transverses Suivi des projets en mettant en place la coordination entre les interlocuteurs data et métiers, organisation de la documentation, des ateliers de travail, des réunions de restitution avec les parties prenantes Communication des delivery Data afin d’assurer la promotion des travaux Expertises demandées pour la réalisation de la prestation : Expériences d’au moins 8 ans en tant que Chef de projet data Expériences d’analyse des données sur un environnement GCP Expériences sur SQL/Big Query Expériences sur les principaux métiers de la data : Collecte, tracking, Dashboard, analyses, personnalisation, data science Expériences sur des données digitales sur l’outil Piano Analytics Capacité à fédérer, coordonner des projets transverses, mener plusieurs sujets en même temps Capacité à synthétiser, et présenter des résultats à des interlocuteurs ayant des niveaux de maturité data différent
Freelance

Mission freelance
Data Engineer

Publiée le
Azure
Databricks
PySpark

6 mois
Paris, France
Télétravail partiel
Contexte : Notre client, un acteur majeur du secteur énergie, renforce son pôle Data Platform dans le cadre de la modernisation de ses pipelines de données sur Azure. Missions : · Développer et maintenir des pipelines de données sur Azure Data Factory et Databricks · Assurer la qualité, la fiabilité et la performance des flux · Participer à la migration vers une architecture Cloud · Collaborer avec les équipes DataOps et Data Science Stack technique : · Azure Data Factory, Databricks, PySpark, SQL, Delta Lake, Git, CI/CD · Environnement Agile / DevOps Profil recherché : · 4+ ans d’expérience en Data Engineering · Bonne maîtrise des environnements Azure / Databricks · Esprit analytique, autonome et orienté delivery
Freelance
CDI

Offre d'emploi
Expertise Box & Wifi

Publiée le
Gateway

1 an
Meudon, Île-de-France
Télétravail partiel
Contexte de la mission Au sein d’une cellule dédiée à la qualité des accès fixes, vous interviendrez en tant qu’expert Wi-Fi et gateways résidentielles grand public. Votre rôle sera de définir les indicateurs de qualité (KPI) liés au Wi-Fi, d’analyser les performances et de conduire les investigations nécessaires pour identifier et résoudre les anomalies observées sur le parc client. Vous possédez une solide expérience des technologies Wi-Fi et avez déjà travaillé sur des produits intégrant des chipsets Broadcom. Une expérience en intégration logicielle sur équipements IAD (accès résidentiel) grand public et en support technique client constitue un atout. Vous êtes reconnu pour votre rigueur analytique, votre méthodologie d’investigation et votre capacité à structurer vos démarches de diagnostic Métrologie et qualité Wi-Fi Contribuer à la définition des KPI de qualité d’expérience (QoE) du service Wi-Fi, en étroite collaboration avec l’équipe data science. Identifier les paramètres et indicateurs pertinents à analyser sur les équipements IAD. Analyse et traitement des défauts Effectuer des tests et analyses approfondis afin d’identifier les causes racines des dysfonctionnements. Définir et formaliser une méthodologie d’investigation, en coordination avec les membres de l’équipe. Caractériser les anomalies, les documenter auprès des fournisseurs et assurer le suivi jusqu’à leur résolution. Développer et utiliser des scripts de captation de traces à distance sur les gateways clients. Livrables attendus Rapports d’analyse de bugs. Spécifications détaillées des KPI Wi-Fi.
Freelance
CDI

Offre d'emploi
Delivery Manger

Publiée le
Dataiku
Gestion de projet

1 an
40k-45k €
250-700 €
Paris, France
Télétravail partiel
Contexte Le client est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Responsabilités Gestion de la livraison : Supervisation de l'ensemble du cycle de vie du projet, en garantissant la livraison des solutions dans les délais impartis, tout en respectant les contraintes budgétaires et les exigences de qualité. Coordonnation des équipes pluridisciplinaires (IT, métiers, partenaires externes) et participer à la synchronisation des différents projets du programme. Suivre l'avancement du projet et communiquer à la Direction de Programme les indicateurs de performance du projet. Gestion des risques et des dépendances : Identification, évaluation et suivi des risques liés à la livraison du projet en mettant en place des plans d'action correctifs pour minimiser leur impact. Suivre les adhérences entre les différents projets du programme en s'assurant que les interfaces et les intégrations soient optimisées et sans friction. Collaboration avec la Direction de Programme et les Parties Prenantes : Suivre une communication fluide et transparente avec les parties prenantes, notamment avec la Direction de Programme. Préparation et animer les comités de suivi et de pilotage du projet. Suivi de l'alignement des objectifs stratégiques avec les actions opérationnelles menées sur le terrain.
Freelance

Mission freelance
Senior Data Scientist - Gen AI - Finance (h/f)

Publiée le

12 mois
650-750 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un Data Scientist expérimenté, spécialisé dans l'IA générique et Python ? Emagine vous offre l'opportunité de guider et de diriger le développement de structures et d'outils efficaces afin de créer des applications d'IA fiables et dignes de confiance dans un environnement bancaire international. Are you an experienced Data Scientist with expertise in Gen AI and Python? Emagine has an opportunity for you to guide and lead the development of effective structures and tools to create reliable, trustworthy AI applications within a global banking environment. As part of an AI-focused emagine team working on Gen AI initiatives that leverage LLMs and advanced techniques to solve complex business problems. You will work on unstructured data from sources such as legal documents and financial trading policies, building solutions that enable accurate and reliable outcomes. Main Responsibilities Lead the design and implementation of Gen AI solutions for text-based and LLM-driven use cases. Develop Python-based tools for data ingestion, modelling, and manipulation of large volumes of unstructured data. Define effective structures and frameworks to ensure reliability and trustworthiness in AI applications. Collaborate with legal and compliance teams to process and model complex datasets. Key Requirements 5+ years of experience in Data Science including international corporate environments. Strong expertise in Python and hands-on experience with LLMs (e.g., Lama 7DB, GPT-4 API). Familiarity with vectorization, chunking, and advanced data modelling techniques. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Nice to Have Exposure to legal or procedure-focused applications. Other Details Work is a minimum of 3 days per week on-site (8th). Apply with your latest CV or reach out to Brendan to find out more.
Freelance

Mission freelance
Data Engineer Semarchy  xDM / xDI Montpellier

Publiée le
Semarchy

6 mois
330-350 €
Montpellier, Occitanie
Télétravail partiel
Data Engineer Semarchy xDM / xDI Montpellier Stambia Python/Java, ETL/MDM, Git, Docker, Kubernetes. Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition. Data Engineer Semarchy xDM / xDI Montpellier Stambia
Freelance

Mission freelance
Ingénieur de production - Data / GCP

Publiée le
Big Data
Google Cloud Platform (GCP)
Production

12 mois
450-500 €
Paris, France
Télétravail partiel
Notre client, un grand groupe bancaire, souhiate intégrer un profil d"ingénieur de production au sein de sa plateforme Data & Analytics Cloud , qui centralise les usages de reporting, data science et data management pour l’ensemble du groupe. Au sein du service Power BI Cloud et Data Platform , vous intégrerez l’équipe en charge de l’exploitation et de la fiabilité des environnements de production supportant plusieurs milliers d’utilisateurs et applications Missions : En tant qu’ Ingénieur de Production , vous participerez à la supervision, au maintien en conditions opérationnelles et à l’automatisation des services data et BI du groupe. Vos activités clés : Assurer l’ exploitation courante de la plateforme Power BI Cloud et des environnements Data (GCP). Gérer les déploiements applicatifs et les changements via XL Deploy . Participer à la mise en place d’infrastructures automatisées (Infrastructure as Code – Terraform ). Superviser les traitements de données et les flux d’ingestion sur BigQuery . Contribuer à la gestion des accès utilisateurs et à la sécurisation des environnements . Participer au diagnostic et à la résolution d’incidents en lien avec les équipes projet et data. Collaborer aux activités Build et à la mise en production de nouveaux services en mode Agile / DevOps . Être force de proposition pour l’amélioration continue , l’ industrialisation et la fiabilité des process d’exploitation Stack technique : Power BI Cloud (SaaS, administration et gouvernance) GCP : BigQuery, IAM, monitoring, déploiement de services Data Terraform (IaC) XL Deploy , intégration et automatisation des déploiements Scripting : Bash / Python / PowerShell Supervision et observabilité (outils du marché ou internes)
Freelance

Mission freelance
Data Scientist Sénior | Expert Retail (H/F)

Publiée le
Apache Airflow
Docker
Google Cloud Platform (GCP)

12 mois
400-590 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’une transformation digitale d’envergure au sein d’un grand acteur du retail, la Direction Data & IA renforce ses équipes pour accélérer la mise en œuvre de modèles de Machine Learning à fort impact business. Le consultant interviendra au sein d’une squad Data Science dédiée à la conception, à l’industrialisation et à l’exploitation de modèles de ML appliqués à divers cas d’usage (pricing, prévision, recommandation, fidélisation, supply chain…). Missions principales Concevoir, entraîner et déployer des modèles de Machine Learning adaptés aux besoins métiers (classification, régression, clustering, NLP, etc.) Préparer et qualifier les jeux de données (data cleaning, feature engineering, détection d’anomalies, sélection de variables) Mettre en place et maintenir les pipelines d’industrialisation (MLOps : Airflow, MLflow, Docker, CI/CD) Collaborer étroitement avec les équipes Data Engineering et Produit pour garantir la scalabilité et la performance des modèles Superviser et améliorer les modèles en production (monitoring, retraining, suivi des indicateurs) Documenter et restituer les travaux auprès des parties prenantes techniques et métiers
Freelance

Mission freelance
Ingénieur LLMOPS/MLOps

Publiée le
CI/CD
IA Générative
Monitoring

3 mois
250-700 €
Noisy-le-Grand, Île-de-France
Télétravail partiel
Bonjour, je suis à la recherche d'un expert MLOPS dont vous trouverez la fiche de poste ci-dessous: Fiche de poste – MLOps / LLMOps – Plateforme IA Générative Introduction Une organisation publique a conçu une plateforme d’IA générative pour répondre à des besoins métiers croissants en bande passante et en accès à des modèles performants. Face à l’augmentation rapide des usages (Assistant IA, outils internes, IA pour développeurs), il devient indispensable de renforcer les capacités opérationnelles et d’optimiser l’infrastructure. Le matériel nécessaire à l’IA générative étant coûteux, l’optimisation de son utilisation est cruciale pour atteindre les objectifs sans dépendre uniquement de l’achat de nouveaux équipements. Dans ce contexte, un profil MLOps est recherché en priorité , avec une expertise LLMOps fortement appréciée . Mission Le MLOps/LLMOps recruté rejoindra la squad Plateforme et travaillera en étroite collaboration avec : Le Product Manager (PM) pour la priorisation des besoins dans une démarche agile ; Le Tech Lead LLMOps, garant du bon fonctionnement de la bande passante générative ; L’équipe Data Science pour le support sur les problématiques IA ; L’équipe Produit et les utilisateurs métiers pour les retours terrain.
Freelance

Mission freelance
Data Scientist sénior traitement du signal acoustique

Publiée le
Deep Learning
Machine Learning
Python

1 an
500-650 €
Paris, France
Télétravail partiel
Dans le cadre d'une création de poste chez l'un de nos clients grand compte dans l'industrie, nous recherchons un(e) data scientist sénior ayant de l'expérience sur le traitement de signal acoustique. Notre client souhaite moderniser ses pratiques dans le cadre de ses opérations de maintenance de son matériel. Vous aurez comme objectif : Etude du besoin, analyse du système et compréhension des données Rédaction de MEMO retraçant les besoins, l'état de l'art, l'approche utilisée, les performances... Echange avec les métiers pour cadrer le besoin, comprendre le métier, les systèmes... Apporter la vision data science pour permettre aux métiers de comprendre la valeur de la donnée Analyse, mise au point, visualisations et validation de la pertinence des données d'aide à la maintenance issues des équipements embarqués et débarqués Définition et implémentation de modèles statistiques. Simulation des résultats Définition et implémentation de modèles de Machine Learning. Simulation des résultats Rédaction des spécifications fonctionnelles détaillées (code source des modèles et règles de pronostics) Définition et implémentation de réseau neuronaux. Simulation des résultats Définition et implémentation de traitement d'image et acoustique. Simulation des résultats Validation et qualification des données issues des équipements de diagnostics Interface avec les équipes de maitrise d'œuvre pour l'industrialisation des algorithmes Organisation et conduite des réunions dont il a la charge sous le pilotage du chef de projet Supports de présentation destinés à la communication interne sur l'avancement des projets; tenue des tableaux de bord Rédaction des comptes rendus des réunions auxquelles vous participez
Freelance

Mission freelance
Un Chef de Projet Data & BI / PO à MER (près d'Orléans)

Publiée le
BI
IA

3 mois
350-430 €
Mer, Centre-Val de Loire
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Chef de Projet Data & BI / PO à MER (près d'Orléans).. Description du poste : Projet d'extension des données du SI Décisionnel Ce projet agile vise à faciliter l’accès aux données pour les utilisateurs métier et les clients. Le prestataire jouera le rôle de Product Owner pour le produit « Data » : gestion du Backlog, collaboration étroite avec le Scrum Master, l’équipe de développement du service Modélisation des Données, les équipes IT, et les métiers. Projet de nouvelle stratégie d’alimentation du Datawarehouse Finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique. Autres projets Mise en place de solutions IA, finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique, mise en place d’un SI Décisionnel RH, et d'autres projets à initier en 2026. Mission : Piloter les projets sur les aspects suivants : - Organisationnels : planning, comitologie, suivi budgétaire, suivi de recette - Techniques : cartographie réseau, flux, analyse de risque, etc. - Relationnels : collaboration avec les équipes IT (Architectes, Réseau, RSI, etc.), les métiers, le CISO, etc. - Maitrise des risques : implique une grande rigueur dans le suivi des actions, des plannings et des budgets Profil : - Spécialiste de la gestion de projets techniques orientés Data, avec un minimum de 3 années d’expérience - Expérience des méthodologies Agile (Kanban, Scrum) en tant que Product Owner - Grande rigueur dans le suivi des actions projet - Expérience de la relation Infogérant / infogéré - Connaissance des sujets Data Science (ML, développement Python, IA générative) - Connaissance du fonctionnement des bases de données (Relationnelles, Cluster, Stockage S3) - Connaissance des infrastructures Cloud, des outils associés aux projets mentionnés ci-dessus, et de Power BI
Freelance
CDI

Offre d'emploi
Business Analyst Data & IA

Publiée le
Business Analysis
Dataiku
IA

1 an
40k-45k €
400-620 €
Paris, France
Télétravail partiel
Contexte et enjeux Une organisation de solutions de crédit-bail se trouve à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre du projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation, plus particulièrement pour le projet de refonte d'une application de valorisation d'assets avancée. Responsabilités Analyse des besoins métiers, des données et des cas d'usage IA Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Comprendre les processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Évaluation et qualification des sources de données disponibles afin d'identifier les données pertinentes et fiables. Vérifier leur qualité, cohérence, disponibilité et adéquation avec les besoins métiers. Collaboration étroite avec le Data Office pour : Valider les jeux de données existants Identifier les manques Contribuer à la modélisation des données non encore prises en charge par les systèmes existants Assurer l'alignement avec les standards de gouvernance, traçabilité et qualité Définition et formalisation avec les Data Engineers et les MLOps des besoins fonctionnels en matière de données et d'algorithmes (features, KPIs, modèles IA, reporting), en veillant à leur faisabilité technique et leur pertinence métier. Spécification fonctionnelle et data design Rédaction de spécifications fonctionnelles détaillées, structurées autour de : User stories data Règles de gestion Dictionnaires de données Mappings sources-cibles Schémas conceptuels / logiques orientés data & IA Description des flux de données end-to-end : collecte, transformation, stockage, mise à disposition, consommation. Assurer une vision claire et documentée du cycle de vie de la donnée. Contribution au design des pipelines de données, en coordination avec les équipes techniques (Data Engineers, Data Scientists), pour assurer la faisabilité, la robustesse et la performance des solutions. Interface entre les équipes métier, Data Office et équipes techniques IA / Data / BI Intermédiaire entre le métier, le Data Office et les équipes IT / Data / IA, en garantissant : Une compréhension commune des exigences La conformité entre les besoins fonctionnels et les solutions techniques proposées La bonne disponibilité des jeux de données nécessaires au projet Accompagnement des utilisateurs métiers dans la compréhension et l'appropriation des données fiables et des solutions analytiques ou IA. Suivi de la mise en œuvre des solutions IA & Data Participation au suivi des développements (étapes clés, points d'avancement) avec un rôle d'assurance fonctionnelle. Validation fonctionnelle des livrables data et IA : Vérification de la qualité des données Contrôle de la complétude des jeux de données Revue des KPI, Dashboard PowerBI, notebooks Dataiku, features IA, etc. Recueil et intégration des retours métiers afin d'ajuster les modèles, indicateurs ou jeux de données. Documentation et gouvernance Production et mise à jour de la documentation fonctionnelle et data. Contribution active aux démarches de gouvernance de la donnée pilotées par le Data Office : qualité, conformité, traçabilité, sécurité.
Freelance
CDI

Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)

Publiée le
Architecture
AWS Cloud
Databricks

12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
84 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous