Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Lille

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 102 résultats.
CDI
Freelance

Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F

STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Freelance

Mission freelance
Data Analyst

CAT-AMANIA
Publiée le
Databricks
Google Sheets
Looker Studio

1 an
100-550 €
Lille, Hauts-de-France
Vous serez le garant de la qualité et de la cohérence des données pour nos tableaux de bord et audits. Analyse & Modélisation : Concevoir des modèles de données (fichiers plats/CSV) à partir de sources variées et définir les règles de transformation et d'agrégation. Reporting & Visualisation : Alimenter et optimiser les tableaux de bord sous Google / Looker Studio pour assurer un pilotage efficace. Consolidation Internationale : Collecter, vérifier et uniformiser les données de formation issues de différents pays (gestion des UUID, formatage CSV standardisé). Qualité & Documentation : Mettre en place des contrôles qualité rigoureux (audit, nettoyage), documenter les processus de transformation et maintenir le référentiel des règles de gestion. Approche Analytique : Traduire les problématiques business en questions analytiques claires et proposer des recommandations actionnables.
Freelance

Mission freelance
Data engineer

CAT-AMANIA
Publiée le
CI/CD
Databricks
PySpark

1 an
100-450 €
Lille, Hauts-de-France
la data est au cœur de notre stratégie, elle guide chaque décision, de la conception du produit à l'expérience client. Notre équipe Managed tools au coeur de la Data Factory est une brique essentielle de cette mission. Organisée autour des outils de compute, orchestration et expostion, l'équipe Managed tools est chargée de mettre à disposition la stack data pour l'ensemble du groupe Decathlon et d'en assurer sa robustesse et scalabilité. Au sein de la squad Compute nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme.
Freelance

Mission freelance
Ops engineer - Data Factory (AWS, Databricks)

CAT-AMANIA
Publiée le
Amazon S3
AWS Glue
Databricks

1 an
100-450 €
Lille, Hauts-de-France
Objectifs et livrables Ta mission sera de Garantir la robustesse de la plateforme (DRP, PCA) Monitorer et prendre des actions proactives de management de la plateforme de stockage (Storage Lens, Cloudtrails) Assurer le support et l'accompagnement sur S3, Glue, Unity Catalog Déployer de nouvelles ressources infra via Terraform et maintenir l'existant Etroite collaboration avec les ops engineer de notre team infra centrale et notre staff ops Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management) Déploiement de Unity catalog et activations de ses nouvelles features (lineage, managed tables etc.)
Freelance

Mission freelance
Data Scientist / ML Engineer (Credit Risk & GenAI)

Codezys
Publiée le
API
Azure
Data science

12 mois
Lille, Hauts-de-France
Dans le cadre de sa feuille de route en intelligence artificielle, ce client s'engage à développer et accélérer l’intégration des technologies de Machine Learning , Deep Learning , NLP (traitement du langage naturel) ainsi que des solutions d’IA Génératives . L’objectif est de maximiser l’exploitation des données, d’optimiser les processus opérationnels et d’améliorer l’expérience client. Objectifs et livrables Credit Risk Scoring Concevoir et optimiser, pour les équipes Risque et Validation, des modèles de scoring d’octroi et de comportement, en explorant des approches innovantes. Assurer la stabilité du coût du risque en entraînant et déployant ces solutions, tout en mettant en place un monitoring efficace de la dérive des modèles. Collaborer étroitement avec les experts métier et les équipes Risque pour garantir la pertinence et l’efficacité des solutions développées. Solutions d’Intelligence Artificielle Optimiser l’expérience client en intégrant en temps réel nos modèles d’IA via des API dans les parcours digitaux (ex. scoring en temps réel, personnalisation des offres de paiement, etc.). Participer à l’architecture technique pour une intégration fluide des modèles, en suivant les meilleures pratiques en matière de développement (notamment Cloud et MLOps). Collaborer avec les équipes Produit et IT afin d’industrialiser et déployer ces solutions à grande échelle. Intelligence Artificielle Générative (GenAI) Transformer les processus internes (Marketing, Audit, Risque, etc.) ainsi que la relation et le support client, en prototypant puis en déployant en production des solutions d’IA Générative sous forme d’agents (ex. LLM, RAG). Automatiser l’octroi de crédits, réaliser des analyses documentaires complexes et faciliter l’interaction avec la clientèle en mettant en place des architectures orientées agents. Évaluer, optimiser et suivre les performances des agents (cohérence, diversité, utilisation de LLM en tant que juge, etc.).
Freelance

Mission freelance
Data Quality Manager

CAT-AMANIA
Publiée le
Databricks
PySpark
Tableau software

1 an
100-500 €
Lille, Hauts-de-France
VOS RESPONSABILITÉS PRINCIPALES Recueillir et évaluer les besoins en matière de qualité des données Accompagner et organiser des ateliers avec les data owners pour comprendre le cycle de vie des données et collecter les exigences en matière de qualité des données (règles, impacts de la non-qualité, parties prenantes, etc.) Interagir et se coordonner avec les autres parties prenantes du projet (Data Steward, Data Engineer, Data Manager…) pour s’aligner sur les contrôles Vérifier et valider la pertinence des règles de qualité des données et leur faisabilité Documenter les règles de qualité dans le catalogue de données (Collibra) Mettre en oeuvre les normes et politique de qualité des données sur votre périmètre pour garantir l'opérabilité des données tout au long de leur cycle de vie dans l'entreprise Concevoir et mettre en œuvre des outils de contrôles et de visualisations de la qualité des données, y compris des alertes pour détecter les erreurs et les incohérences Mettre en œuvre et animer les processus de remédiation afin d’assurer l’amélioration continue du dispositif de qualité des données Implémenter des outils pour automatiser les tâches de contrôle et de correction des données. Etre force de proposition auprès de la Stream Leader Data pour permettre la mise à l’échelle des futurs déploiements Contribuer et participer activement à la communauté des Data Quality Manager
Freelance

Mission freelance
TechLead Data Engineer

MLMCONSEIL
Publiée le
Apache Kafka
Hadoop
PySpark

6 mois
150-490 €
Lille, Hauts-de-France
Pour le besoin de mon client , je suis à la recherche d'un TechLead Data Engineer avec compétence sur la stack technique Spark/PySpark, Kafka, Hadoop, Python Langues : français, l'anglais est un plus Date de démarrage : ASAP .... . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... .
Freelance

Mission freelance
Data Analyst IA Solutions (PowerBI, SQL, Python)

Nicholson SAS
Publiée le
CI/CD
Data analysis
DBT

24 mois
300 €
Lille, Hauts-de-France
Missions : Nous recherchons une personne avec une expérience confirmée (au moins 3 à 5 ans sur des problématiques Data), passionnée par la construction de solutions analytiques robustes et percutantes. Modélisation et Bases de Données : Vous maîtrisez parfaitement le langage SQL pour concevoir et optimiser des tables de données, notamment dans BigQuery et PostgreSQL. Vous avez également une connaissance des bases de données NoSQL comme MongoDB. Une expérience avec dbt pour la transformation et la modélisation est fortement appréciée. Visualisation de Données (Dataviz) : Vous avez une expertise solide sur des outils de BI comme Power BI ou Looker pour transformer des données brutes en dashboards interactifs et clairs, aidant ainsi à la prise de décision. Ingénierie et Analyse : Vous utilisez Python pour l'analyse, la manipulation de données complexes ou l'automatisation de tâches. Écosystème Cloud & DevOps : Vous êtes familier avec Google Cloud Platform (GCP). Vous avez une forte sensibilité aux pratiques DevOps et une expérience avec les outils d'intégration et de déploiement continus (CI/CD, comme Git, GitLab CI, GitHub Actions) pour garantir le versionnement, la qualité et l'automatisation des déploiements. Qualité de la Donnée : Vous êtes sensible à la qualité et à la gouvernance des données, et vous mettez en place des pratiques pour assurer la fiabilité des informations.
Freelance

Mission freelance
Responsable d’Application (RUN & DATA GCP)

Codezys
Publiée le
Git
Reporting
Shell

6 mois
Lille, Hauts-de-France
Localisation : Lille Contexte : International 1) Description de la mission Située dans un contexte international, cette mission concerne la gestion de plusieurs produits digitaux récemment déployés, avec des enjeux clés tels que : la fiabilité la continuité de service la qualité des données la performance opérationnelle Le poste de Responsable d’Application combine une responsabilité majeure dans le domaine du RUN applicatif (support, gestion des incidents, maintien en conditions opérationnelles, performance) et une contribution technique liée aux composants DATA sur GCP. Il s’inscrit dans une démarche d’amélioration continue et de développement progressif des compétences sur la stack technologique. Le profil recherché doit être à la fois technico-fonctionnel, avec une orientation vers le pilotage du RUN et du support applicatif, plutôt que vers un rôle exclusivement de développement. 2) Objectifs & responsabilités principales Pilotage du RUN applicatif Assurer la gestion des incidents et des problèmes Garantir le maintien en conditions opérationnelles (MCO) Suivre la performance à l’aide de KPI et produire un reporting régulier Maintenir la stabilité et la continuité du service pour le périmètre concerné Pilotage opérationnel & coordination transverse Animer les instances de projet et de run : COMOP / COPIL Coordonner les différentes parties prenantes : équipes IT, métiers, TMA, éditeurs, pays Gérer le pilotage opérationnel global et assurer le suivi des actions Mise en production & évolutions Accompagner les mises en production (MEV) Suivre l’avancement des projets et évolutions du périmètre Garantir la maîtrise à la fois fonctionnelle et technique des outils Assurer la maintenance évolutive Contribution DATA (GCP) Analyser et comprendre les flux de données et leurs usages Intervenir techniquement sur des aspects tels que SQL ou troubleshooting data Développer ou faire évoluer certains composants sous GCP si nécessaire Participer activement à l’amélioration continue et à la montée en compétences sur la stack DATA 3) Livrables attendus Suivi du RUN avec : – Tableaux de bord KPI – Reporting régulier (incidents, performance, disponibilité) Comptes rendus et supports d’instances : – COMOP / COPIL – Plan d’actions pour le RUN et l’amélioration continue Suivi des mises en production (MEV) : – Préparation, coordination, validation et accompagnement Documentation opérationnelle et technique du périmètre Analyses des flux DATA et résolution d’anomalies
Freelance

Mission freelance
AI Product Owner

Codezys
Publiée le
Azure
Cloud
Data science

12 mois
Lille, Hauts-de-France
Principales missions : Vision & Stratégie Produit IA : Définir la stratégie des solutions IA en collaboration avec les équipes métier, en identifiant les opportunités dans les domaines du Risque, du Paiement, du Digital, etc., et en priorisant les projets selon leur valeur et faisabilité. Gestion du Backlog & Priorisation : Coordonner et prioriser les initiatives en Data Science et IA en traduisant les besoins métier en fonctionnalités, en maintenant le backlog et en arbitrant les priorités pour maximiser l’impact business à chaque sprint. Pilotage du Delivery Agile : Superviser la livraison des projets IA via des méthodologies agile (Scrum/Kanban), organiser les cérémonies, suivre l’avancement, lever les obstacles, et garantir le respect des délais, du budget et de la qualité, tout en communiquant avec les sponsors. Coordination Métiers–Data–IT : Servir d’interface entre les équipes Data Science, IT et métiers, en facilitant la co-construction de solutions adaptées, en intégrant les contraintes techniques et en assurant une mise en œuvre fluide. Crédit & Risque (Scoring) – Use cases « Machine Learning » classiques : Piloter l’évolution des modèles de scoring crédit (octroi, scores comportementaux), en concevant, expérimentant, déployant et en monitorant les modèles en collaboration avec Risque et Validation, en s’assurant qu’ils respectent les normes réglementaires et qu’ils améliorent la stabilité du coût du risque. IA Générative & Agents : Explorer et déployer des cas d’usage liés à l’IA générative, tels que chatbots, assistants cognitifs ou systèmes avec LLM/RAG, pour automatiser l’analyse de documents, soutenir les équipes internes ou enrichir le support client, en définissant objectifs et indicateurs de performance.
CDI
Freelance

Offre d'emploi
Data Scientist Senior (Machine Learning, MLOps & IA Générative) - Lille (H/F)

STORM GROUP
Publiée le
MLOps
Pandas
Python

3 ans
50k-57k €
500-600 €
Lille, Hauts-de-France
Contexte du poste : Un acteur bancaire souhaite renforcer sa stratégie d’Intelligence Artificielle en développant des solutions avancées de Machine Learning, Deep Learning, NLP et IA Générative. L’objectif est de valoriser les données, optimiser les processus internes et améliorer l’expérience client grâce à des modèles robustes, explicables et industrialisés. Missions principales : 1. Modélisation Risque & Scoring Concevoir, optimiser et challenger les modèles de scoring d’octroi et de comportement. Explorer des approches innovantes pour améliorer la performance et la stabilité des modèles. Déployer les modèles en production et assurer leur monitoring (dérive, performance, stabilité). Travailler en étroite collaboration avec les équipes Risque, Validation et les experts métier. 2. Développement de Solutions IA Intégrer les modèles ML/AI en temps réel dans les parcours digitaux (scoring instantané, personnalisation des offres…). Participer à la conception de l’architecture technique (Cloud, MLOps, API, pipelines). Collaborer avec les équipes IT et Produit pour industrialiser les solutions et garantir leur scalabilité. 3. IA Générative & Agents Prototyper et déployer des solutions d’IA Générative (LLM, RAG, agents intelligents) pour transformer les processus internes (Marketing, Audit, Risque, Support…). Mettre en place des architectures agentiques pour automatiser des tâches complexes : analyse documentaire, octroi de crédit, interaction client. Évaluer et monitorer les performances des agents (cohérence, diversité, RAGAS, LLM-as-a-Judge…).
Freelance

Mission freelance
Chef de Projet Infrastructures

ESENCA
Publiée le
Conduite du changement
DataCenter Infrastructure Management (DCIM)
Pilotage

1 an
Lille, Hauts-de-France
Contexte : Dans le cadre d’un programme de transformation technologique à dimension internationale, une organisation souhaite renforcer ses équipes avec un Chef de Projet Technique afin de piloter plusieurs projets d’infrastructures et accompagner la mise en œuvre de solutions techniques. Le poste implique une forte coordination entre les équipes techniques, les prestataires et les différentes parties prenantes afin de garantir la bonne réalisation des projets. Objectif de la mission Piloter des projets techniques et assurer la livraison des infrastructures associées, en garantissant la qualité des livrables, le respect des délais et du budget, ainsi que la coordination des différents intervenants. Responsabilités principalesCadrage et préparation des projets Définir le périmètre des projets et réaliser le cadrage budgétaire . Rédiger les cahiers des charges et participer aux appels d’offres . Réaliser les études d’opportunité et business case . Construire et maintenir le planning de mise en œuvre . Pilotage des projets techniques Assurer la maîtrise d’œuvre des projets confiés. Coordonner les différents chantiers techniques avec les équipes internes et les prestataires. Suivre l’avancement des projets et garantir la qualité des livrables. Piloter les projets dans le respect des délais, budgets et objectifs fixés . Mettre en place une gestion des risques et suivre les plans d’actions. Coordination et gouvernance Préparer et animer les réunions de coordination opérationnelle avec les équipes techniques et les fournisseurs. Organiser et animer les comités de pilotage avec les parties prenantes . Assurer la communication projet et produire les documents clés (planning, comptes rendus, RACI, documentation projet). Livrables attendus Planning projet Comptes rendus et reporting d’avancement Documents de cadrage et de gouvernance Compétences attenduesCompétences techniques Conduite de projet – Confirmé (impératif) Pilotage de prestataires – Confirmé (important) Communication et coordination d’équipes – Confirmé (important) Compétences fonctionnelles Gestion de projets techniques ou d’infrastructures Coordination d’équipes pluridisciplinaires Gestion des risques, planning et budgets Langues Français courant impératif Anglais professionnel souhaité
Freelance

Mission freelance
Web Analyst (H/F)

WINSIDE Technology
Publiée le
Google Analytics
Google Data Studio
Google Tag Manager

1 an
Lille, Hauts-de-France
Mission principale : Au sein des équipes Digital & Data, le Web Analyst est responsable de la mesure de la performance digitale, de l’analyse des parcours clients et de l’exploitation des données pour optimiser l’expérience utilisateur et les résultats business. Il/elle joue un rôle clé dans l’amélioration continue du site et de l’ensemble de l’écosystème digital. Responsabilités : 1. Analyse & mesure de la performance Définir, maintenir et optimiser la webanalyse (datamodel, plans de taggage, KPIs). Suivre les performances du site : trafic, conversion, parcours, taux de rétention, rebond, etc. Analyser les comportements utilisateur pour identifier les freins, opportunités et segments clés. Développer des tableaux de bord pour les équipes Produit, E‑commerce, Marketing. 2. Pilotage & optimisation Recommander des améliorations UX/UI basées sur la donnée. Accompagner les équipes Produit dans les choix d’optimisation (A/B tests, personnalisation). Participer à la définition des objectifs business : acquisition, conversion, fidélisation. 3. Gestion du tagging & de la qualité de la donnée Construire et maintenir les plans de marquage (GTM ou équivalent). Contrôler la qualité des données, diagnostiquer les anomalies et assurer leur fiabilité. Collaborer avec les équipes Data Engineering pour une exploitation cohérente et propre des données. 4. Collaboration transversale Travailler en étroite collaboration avec les équipes E‑commerce, CRM, Marketing, UX et Produit. Présenter les analyses et insights de manière claire, orientée business. Sensibiliser les équipes internes à la culture data. Compétences techniques attendues : Outils de webanalyse Google Analytics (GA4) ou autre solution équivalente. Google Tag Manager (ou TMS similaire : Tealium, Tag Commander). Data & visualisation Outils BI : Data Studio / Tableau / Power BI. Bonne maîtrise d’Excel. Connaissance SQL est un plus. Expérience en optimisation A/B testing : AB Tasty, Kameleoon, Optimizely. Méthodologies CRO (Conversion Rate Optimization).
Freelance

Mission freelance
Architecte Entreprise

Sapiens Group
Publiée le
Collibra

12 mois
580-600 €
Lille, Hauts-de-France
Mission principale En tant que Data Architect pour la plateforme HRDP, vous serez responsable de la définition et du maintien d’une architecture data cohérente et modulaire, alignée sur la stratégie d’entreprise. Vous construirez, en collaboration avec les équipes projets, une trajectoire de transformation métier et digitale intégrant les exigences des parties prenantes tout en respectant les principes d’architecture modulaire. Responsabilités et activités clés Data Architecture Concevoir des modèles conceptuels de données par contexte métier. Identifier et formaliser les évènements métier par contexte. Définir et formaliser les Business Terms, Business Attributes et Business Events dans Collibra. Définir les Indicateurs Clés de Performance (KPI) par contexte métier. Définir les règles de qualité des Business Terms. Analyser la conformité des API et des Data Sets avec la data architecture. Réaliser le data lineage et la traçabilité des données. Rédiger des dossiers d’architecture data répondant aux demandes business exprimées dans les quarter plans. Participer activement à la data governance de la plateforme HRDP. Stratégie et méthodologie Recueillir et structurer les besoins de transformation. Sélectionner modèles de référence, points de vue et outils adaptés. Formaliser l’architecture existante et concevoir l’architecture cible du domaine. Réaliser l’analyse des écarts et définir les scénarios de trajectoire pour atteindre l’architecture cible. Résoudre les impacts potentiels sur l’architecture globale. Présenter et faire valider la trajectoire d’architecture par les parties prenantes. Finaliser le dossier d’architecture en coordination avec les équipes concernées. Gestion de la connaissance Capitaliser et animer les artefacts dans le Référentiel d’Architecture. Assurer une veille continue sur les pratiques externes et innovations dans le domaine de la data et de l’architecture SI. Livrables Standards d’architecture SI mis en œuvre dans l’entreprise. Dossier d’architecture de référence et data lineage complet. KPI et indicateurs de qualité des données. Indicateurs de performance Performance globale de l’architecture du SI : agilité, satisfaction utilisateur, innovation, maintenabilité, sécurité, qualité de service, coût. Bénéfices des projets liés à une architecture bien définie (coûts évités, réutilisation). Nombre d’exceptions aux principes d’architecture et aux standards. Pourcentage des projets utilisant le Framework d’architecture de l’entreprise. Nombre de personnes formées au Framework d’architecture. Satisfaction des clients IT en termes d’architecture. Compétences et qualifications Expertise confirmée en architecture d’entreprise et data architecture. Maîtrise des concepts de Business Terms, Business Attributes, Business Events, KPI et data governance. Expérience dans la définition d’architecture cible et l’analyse des écarts. Connaissance des outils de data governance tels que Collibra. Capacité à travailler avec des équipes pluridisciplinaires et à présenter des trajectoires d’architecture aux parties prenantes. Esprit analytique, rigueur et vision stratégique 360° du SI
CDI

Offre d'emploi
Développeur Python (H/F)

Webnet
Publiée le
Python

34k-46k €
Lille, Hauts-de-France
Développeur Python (H/F) 📍 Localisation : Lille 📄 Type de contrat : CDI 💰 Rémunération : 34-46K Selon profil 🚀 Contexte Dans le cadre de notre développement, nous recherchons un(e) Développeur(se) Python disposant de solides compétences en DevOps et d’un intérêt marqué pour la data et/ou l’intelligence artificielle. Vous interviendrez sur des projets innovants à forte valeur ajoutée, mêlant développement, automatisation et exploitation de données. 🎯 Vos missions Concevoir, développer et maintenir des applications en Python Participer à la mise en place et à l’évolution des architectures techniques (CI/CD, cloud, conteneurisation) Automatiser les processus de déploiement et d’exploitation Collaborer avec les équipes data pour intégrer des modèles analytiques ou d’IA dans les applications Assurer la qualité du code (tests, revues, bonnes pratiques) Participer à la veille technologique (Python, DevOps, data, IA)
Freelance

Mission freelance
IA Ready Lead

ESENCA
Publiée le
Agent IA
GenAI
Pilotage

1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la IA Ready Lead pilote la préparation et la structuration des données et connaissances nécessaires aux systèmes d’intelligence artificielle. Il/elle encadre une équipe dédiée à la mise en qualité des contenus et à leur exploitation optimale pour les solutions IA (copilots, agents, RAG). Encadrement Management d’une équipe spécialisée pouvant inclure : Knowledge Manager IA Ready Data / IA Ready Analyst Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de la conformité et de l’adoption Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets spécialisés Mission Le/la IA Ready Lead est responsable de la préparation fonctionnelle, sémantique et organisationnelle des données utilisées par les solutions d’intelligence artificielle. Il/elle garantit la disponibilité, la qualité, la cohérence et la traçabilité des bases de connaissances, et définit les standards permettant d’optimiser la performance des systèmes IA. Responsabilités principales 1. Définition de la stratégie IA Ready Définir la stratégie de préparation des données pour l’IA Identifier et cartographier les sources de connaissances Prioriser les sources en fonction des cas d’usage Définir l’architecture fonctionnelle des bases de connaissances 2. Standards de structuration et performance RAG Définir les standards de structuration des contenus (taxonomie, tagging, hiérarchie) Définir les règles de segmentation (chunking) adaptées aux usages IA Fixer les niveaux de granularité optimaux pour la recherche par similarité Définir les critères de qualité permettant d’améliorer la pertinence des réponses 3. Pilotage de la préparation des contenus Qualifier les besoins de contenus avec les équipes IA Delivery Superviser la structuration, le nettoyage et l’enrichissement des données Définir les critères d’acceptation IA Ready (qualité, complétude, fraîcheur) Garantir la cohérence sémantique et métier des bases de connaissances 4. Coordination transverse Collaborer avec les équipes IT pour l’ingestion et la mise à disposition des données Travailler avec les équipes Data pour l’alignement avec les référentiels Coordonner avec les équipes IA Delivery pour assurer l’adéquation avec les cas d’usage Organiser les boucles de feedback entre usage et amélioration des contenus 5. Gouvernance et documentation Définir les standards de documentation des bases de connaissances Mettre en place les règles de gouvernance (ownership, validation, versioning) Structurer les processus de mise à jour et de maintenance Garantir la traçabilité des sources et des transformations 6. Qualité et fiabilité des données Définir les règles de qualité des données IA Mettre en place des contrôles et indicateurs de qualité Suivre les écarts et piloter les plans d’amélioration Garantir la fiabilité et la lisibilité des contenus 7. Industrialisation et réutilisation Concevoir des modèles de connaissances réutilisables Standardiser les pratiques IA Ready Capitaliser sur les retours d’expérience Diffuser les bonnes pratiques au sein de l’organisation 8. Contribution à la conformité Assurer la traçabilité des sources utilisées Veiller au respect des règles de protection des données Contribuer aux exigences des équipes en charge de la conformité

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

102 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lille, Hauts-de-France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous