Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 205 résultats.
Freelance

Mission freelance
POT9036 - Un Data ingénieur sur Massy

Almatek
Publiée le
SQL

6 mois
360-470 €
Île-de-France, France
Almatek recherche pour l'un de ses clients ,Un Data ingénieur sur Massy. Taches: Participation à la définition des solutions applicatives Développement, Intégration et Recette technique Surveiller et améliorer l'efficacité des processus Tenir à jour la documentation des systèmes et des processus. Contexte : Nous recherchons un/une Data Engineer expérimenté(e) pour contribuer à la réalisation des projets de la Squad Usages Data Avancé & IA: Conception et Maintenance de l'applicative Amélioration continue des produits / solutions de la squad Construction nouveaux usages Attendu: Construire et maintenir des pipelines ETL/ELT pour données structurées et non-structurées Mettre en oeuvre des chaines d'intégration, de déploiement et de suivi des solutions en production (DataOps). Préparer des datasets utilisés pour de l'exploration de données Développer et favorise l’industrialisation de modèles statistiques ou de machine learning Versionner données/modèles/code et monitorer performance/coûts Collaborer avec les équipiers de la squad et documenter vos travaux Compétences Humaines: Une bonne autonomie et capacité d'adaptation à des projets innovants et rythmés Sens du travail en équipe bonne communication et accompagnement utilisateurs Compétences Techniques: Langages : Python (FastAPI, Pyspark), SQL Qualité de code : Pytest, SonarQube MLOps/CI-CD : Docker, Kubernetes, GitHub/GitLab Actions Data & DB : PostgreSQL, Teradata, MySQL Observabilité : Stack ELK, Prometheus/Grafana, MLflow Plus si compétence en Big Data/Streaming : Spark, Kafka Experience 4 à 7 ans. Date de debut souhaitée :30 Mars 2026, mission longue
Freelance

Mission freelance
Data Analyst Power BI Checy Minimum 5/7 ans d’expérience/su

WorldWide People
Publiée le
Microsoft Power BI

9 mois
340-400 €
Chécy, Centre-Val de Loire
Data Analyst Power BI Checy Minimum 5/7 ans d’expérience sur des projets décisionnels Full présentiel dans un premier temps puis 3 jours de TT Très bonne connaissance des environnements assurance, c'est obligatoire. Forte capacité de communication et de pédagogie auprès des métiers (forte compétences métier assurance obligatoire) Autonomie, structuration et sens du résultat Organisation · Mission prévue au minimum jusqu’à la fin de l’année Localisation : Chécy La mission est sur Chécy, Full présentiel dans un premier temps puis 3 jours de TT. Mission jusqu'a au moins mi 2027 voir plus. Ci dessous le besoin : Contexte de la mission Dans le cadre de la mise en place et de l’industrialisation de tableaux de bord décisionnels Power BI, le client recherche un Data Analyst Power BI confirmé pour accompagner les directions métiers dans la construction et le pilotage de leurs indicateurs stratégiques. La mission s’inscrit dans un contexte assurance , avec des enjeux forts de compréhension métier, de structuration de la donnée et d’aide à la décision au niveau Direction Générale. Objectifs de la mission · Concevoir, développer et maintenir des tableaux de bord Power BI à destination de la Direction Générale Accompagner les métiers dans la transformation de leurs usages historiques (Excel, SAS) vers une logique Power BI plus industrialisée Structurer la démarche décisionnelle et garantir la cohérence des indicateurs Périmètre fonctionnel Les tableaux de bord concernent notamment : · Direction Générale Direction des Offres Direction Commerciale Direction Marketing Activités principales · Capacité à s’asseoir avec les métiers , comprendre leurs besoins et leurs usages actuels Accompagnement au changement : expliquer pourquoi une logique Excel / SAS ne peut pas être transposée telle quelle dans Power BI Définition de la logique de données et des indicateurs Rédaction de notes de cadrage , validation avec les métiers Conception et développement des rapports Power BI Mise en production et assurance du RUN (maintien, évolutions, fiabilité des dashboards) Profil recherché · Data Analyst Power BI confirmé · Minimum 5/7 ans d’expérience sur des projets décisionnels Très bonne connaissance des environnements assurance, c'est obligatoire. Forte capacité de communication et de pédagogie auprès des métiers (forte compétences métier assurance obligatoire) Autonomie, structuration et sens du résultat Organisation · Mission prévue au minimum jusqu’à la fin de l’année Localisation : Chécy
Freelance

Mission freelance
Consultant Data gouvernance Collibra (BCBS 239)

STHREE SAS pour COMPUTER FUTURES
Publiée le
Collibra
Data management

9 mois
Île-de-France, France
Contexte : Cadre réglementaire pour les banques : Exigences Bâle 2 renforcée, besoin de données fiables pour piloter les risques et pression sur qualité et traçabilité de données Objectifs : Implémentation de Collibra (choix du siège) comme levier RDARR : La plateforme de gouvernance des données ❖ Glossaire, dictionnaire, référentiels ❖ Rôles et responsabilités (ownership) // Documentation et workflows ❖ Data lineage ❖ Cohérence et transparence des données utilisées Missions Phase Data Owner Assignment : suivant la définition théorique que nous avons donné en interne sur les rôles et Responsabilités, 4 profils : Data Owner, Stewart, Producer et User ❖ Préparer et faire valider la matrice des R&R auprès des Data Owner à partir du scope CONNECT ❖ Faire valider les Rôles et Responsabilités auprès des Data Owner sur les IDP Connect (Local file, Mapping table, RDT, Scoring, Rating …) Phase Alimentation Collibra : ❖ « Ecosystème input CONNECT » Use case de l’implémentation dans Collibra) 1/ Préparer les différents templates (par entités CONNECT) pour Collibra avec les besoins fonctionnels demandés pour Collibra 2/ Identifier les sources de données (avec l’aide de spécifications techniques) 3/ Faire compléter le lineage de data par l’IT 4/ Tester les templates sur K dans l’import Collibra et valider les schémas (Vérifier que le lineage fonctionne correctement avec les données attendues en provenance des systèmes) 5/ Mettre en production les templates 6/ Effectuer et Organiser les correctifs nécessaires en partenariat avec l’IT. 7/ Participer au meetings bi-weekly avec le siège sur l’avancement des travaux – Fournir l’avancement nécessaire dans JIRA et/ou au Data Officer ❖ «Ecosysteme Autres » Selon le siège, « nous » livrons des spreadsheets pour le compte du regulatory reporting. Cadrage encore flou. Cependant l’idée serait d’auditer certains services pouvant « toucher » aux outils du siège (suivant liste pré définie) afin de vérifier que des données sont envoyées au siège et par quel biais. - Prendre les outils recensés par le siège (Check si ces outils génèrent des flux pour les besoins des reportings règlementaires au siège) - Sonder sur les User de ces outils et les flux existants - Organiser la description de ces flux en vue de l’intégration dans Collibra . - Vérifier que le flux soient déclarés en interne dans la cartographie des outils avec architecte IT
Freelance

Mission freelance
PROXY PRODUCT OWNER DATA

Codezys
Publiée le
ERP
Finance
P2P

6 mois
Courbevoie, Île-de-France
Contexte de la mission : Intégrée au Group Data Office dans le cadre de la transformation Finance, cette mission sert d’interface entre Finance, IT et équipes Data. Le Proxy Product Owner Data accompagne l’équipe Corporate Finance dans les programmes de transformation tels que : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus Finance Elle vise à : Identifier, structurer et prioriser les initiatives data Finance Aligner avec les standards et architectures du Group Data Office Piloter et livrer efficacement ces initiatives Le rôle, transverse et collaboratif, relie besoins métiers, capacités techniques data et frameworks de delivery, tout en assurant gouvernance et conformité aux standards du groupe. Objectifs et livrables : 1. Identification et structuration des projets data Finance : Identifier les initiatives de transformation avec impact data Évaluer leur valeur business et faisabilité Assurer leur alignement avec les priorités du Group Data Office Livrables : portefeuille d’initiatives, framework de qualification, analyse d’impact 2. Formalisation des besoins et conception des solutions : Traduire besoins Finance en exigences data et techniques Aligner avec les patterns d’architecture du groupe Livrables : documentation des besoins, spécifications, flux et processus, validation des solutions 3. Expertise Finance et support : Fournir une expertise sur les processus Corporate Finance Accompagner les initiatives P2P, O2C, automatisation Livrables : cartographie, recommandations d’amélioration 4. Automatisation des processus : Soutenir les cas d’usage automatisation Garantir la qualité et l’intégration des données Livrables : backlog, spécifications, pipelines et intégrations 5. Coordination du delivery : Coordonner équipes Finance, IT, Data Office Suivre l’avancement, identifier blocages Livrables : tableaux de bord, rapports, gestion des risques 6. Gouvernance, standards et bonnes pratiques : Respecter standards du Data Office Appliquer patterns d’architecture et contrôles qualité Livrables : conformité, documentation, règles qualité 7. Communication et gestion des parties prenantes : Être référent data du programme Finance Transformation Assurer communication et coordination Faciliter la prise de décision Livrables : rapports d’avancement, supports, présentations
CDI

Offre d'emploi
Développeur Data BI/Cybersécurité (min 7 ans d'expérience )H/F

TOHTEM IT
Publiée le

36 500-45k €
Toulouse, Occitanie
Ta mission Tu rejoins une équipe en charge de la gouvernance et des risques IT pour renforcer et fiabiliser les outils de reporting liés aux activités sécurité. Ton rôle sera clé : améliorer l’existant, concevoir de nouveaux outils, assurer leur maintien en conditions opérationnelles (MCO) et garantir le RUN avec la production de reportings réguliers (hebdomadaires, mensuels, trimestriels…) destinés à une direction générale. Selon la charge, tu pourras également contribuer à d’autres activités autour de la gestion des risques IT et de la sensibilisation sécurité. Pas besoin d’être expert·e technique en cybersécurité, mais une vraie appétence pour les sujets Risk IT / SSI est essentielle. Concevoir, développer et maintenir des outils de reporting liés à la gouvernance et aux risques IT Assurer le RUN et produire des reportings à forte visibilité (exigence élevée en précision, rigueur et qualité) Développer et faire évoluer des tableaux de bord Participer, selon les besoins, à des actions de sensibilisation sécurité (organisation, animation, suivi) Contribuer à certaines activités de gestion des risques IT Environnement technique Power BI Power Automate Microsoft Lists SharePoint Développement d’applications de tableaux de bord et reporting Production et suivi en RUN
Freelance
CDI

Offre d'emploi
Data Scientist Senior - Veille & Développement Modèles

TS-CONSULT
Publiée le
Azure
Scikit-learn

1 an
Île-de-France, France
Bonjour a tous ,actuellement je suis a la recherche d'un profil , Data Scientist Senior - Veille & Développement Modèles Profil recherché : Data Scientist Senior avec expérience banking/finance, expert en ML/DL et maîtrisant le vibe coding, capable d'évaluer rapidement la faisabilité technique des use cases IA, de développer des POCs et de rester à la pointe des avancées technologiques. Compétences requises Hard Skills : • 7 ans d'expérience minimum en Data Science / Machine Learning • Expérience confirmée dans le secteur banking/finance (compréhension des enjeux métier) • Expérience démontrée en vibe coding avec utilisation productive d'outils IA pour prototypage rapide • Expertise en ML/DL : apprentissage supervisé, non-supervisé, deep learning, NLP, séries temporelles • Maîtrise des frameworks Python : scikit-learn, TensorFlow, PyTorch, XGBoost, LightGBM • Connaissance approfondie des LLMs et techniques modernes (fine-tuning, RAG, prompt engineering, agents) • Expertise en feature engineering et sélection de variables • Maîtrise de l'analyse exploratoire de données et statistiques • Expérience en évaluation et optimisation de modèles (hyperparameter tuning, cross-validation) • Connaissance des plateformes Cloud ML (AWS SageMaker, Azure ML, GCP Vertex AI) • Maîtrise de SQL et manipulation de grands volumes de données • Connaissance des outils de versioning (Git) et notebooks (Jupyter, Databricks) • Un plus : Expérience en Computer Vision, Reinforcement Learning ou Graph ML Soft Skills : • Curiosité intellectuelle insatiable et veille technologique active • Capacité de synthèse et de recommandation (traduire la complexité technique en insights actionnables) • Esprit critique face aux résultats de modèles et au code généré par IA • Pragmatisme : capacité à évaluer rapidement le ROI d'une approche technique • Rigueur scientifique dans l'expérimentation et la validation • Excellente communication technique et métier • Capacité à travailler dans l'incertitude et l'ambiguïté • Esprit d'initiative et force de proposition • Pédagogie et mentorat (accompagnement du Data Scientist junior) • Esprit agile et adaptatif Anglais courant.
CDI
Freelance

Offre d'emploi
SAP Data Migration Lead – (FI/CO/AA) Migration S/4HANA

Avanda
Publiée le

Paris, France
SAP Data Migration Lead – (FI/CO/AA) Migration S/4HANA Nous recherchons pour l'un de nos clients, groupe international en pleine transformation SAP ECC → S/4HANA, un(e) SAP Data Migration Lead pour piloter l'ensemble du chantier reprise de données sur les modules Finance (FI, CO, FI-AA). Poste base a Paris. Vos responsabilités Cadrage stratégique Définir la stratégie globale de migration : périmètre, scénarios, principes de reprise Qualifier les sources de données à migrer (volumes, criticité, qualité) Identifier et documenter les risques et contraintes (techniques, organisationnels, calendaires) Définir la stratégie de tests associée et contribuer à l'élaboration du planning prévisionnel Conception et supervision Superviser la conception des outils, scripts et règles de transformation par l'intégrateur Formaliser les besoins fonctionnels et techniques liés aux processus de reprise (fusions d'entités, évolutions de référentiels, disparition d'objets intermédiaires) Garantir la production et la disponibilité de la documentation fonctionnelle et technique Tests, validation et déploiement Organiser et piloter les itérations de tests de migration (mocks, dry runs, tests de charge) Assurer le suivi des anomalies et piloter leur correction jusqu'à résolution Coordonner avec le Responsable Tests & Recette les campagnes d'intégration et la résilience des flux post-migration Superviser la cohérence entre objets migrés et flux applicatifs lors des phases de go-live Pilotage et gouvernance Représenter le chantier données dans les instances de gouvernance du programme Assurer l'interface entre lots fonctionnels, techniques et métiers Produire un reporting régulier sur l'avancement, la qualité et les risques Contribuer à l'organisation du support post mise en production Requirements 7 à 10 ans d'expérience sur des projets SAP Experience obligatoire de migration end-to-end ECC -> S/4HANA Maîtrise approfondie des objets de données SAP Finance : FI, CO, FI-AA, Universal Journal (ACDOCA) Maîtrise des outils SAP de migration : LTMC, LSMW, SAP Data Services ou équivalents Bonne compréhension des processus ETL et des mécanismes d'intégration SAP (SAP PO/PI, Integration Suite) Expérience confirmée en pilotage d'intégrateur et en gouvernance de programme complexe multi-acteurs Capacité à travailler en environnement multi-SI et à conduire un travail de conviction à différents échelons hiérarchique
CDI

Offre d'emploi
Data Scientist MLOPS (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
Deep Learning
DevOps

51k €
Courbevoie, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Consultant SAP Data Migration

CRYSTAL PLACEMENT
Publiée le
SAP

12 mois
Paris, France
Nous recherchons des consultants SAP confirmés / Data Migration Experts pour un projet stratégique de migration S/4HANA . Profil recherché : BA confirmé ou Data Migration Expert Expérience sur projets Core Model ou roll-out SAP Compréhension des processus industriels / manufacturiers (PP / QM / MM / APO) Capacité à structurer méthodologie, templates et règles de migration Forte posture coordination, animation et arbitrage Mission : Pilotage complet de la migration de données : préparation, cycles MOCK / UAT et production Définition et suivi des templates, mapping rules et séquences de chargement Support aux équipes métier et animation de la communauté Data Migration Experts Durée : 1 an minimum Séniorité : 4 à 7 ans d’expérience Intéressé(e) ou à recommander ? Envoyez votre CV directement pour être contacté.
Freelance

Mission freelance
Data analyst / Support analyst

UCASE CONSULTING
Publiée le
Microsoft Excel

3 ans
450-500 €
Paris, France
Bonjour, Pour le compte de notre client, nous recherchons un data anayst / support analyst. 1 – CONTEXTE ET PÉRIMÈTRE Le Data Analyst est responsable de la qualité, de la cohérence et de l’exhaustivité des données utilisateurs et des souscriptions aux services dans HERO, ainsi que de leur synchronisation et alignement avec les outils tiers (Docebo, SmartRecruiter, ServiceNow et Microsoft Entra ID). L’objectif est de renforcer la fiabilité des données de référence (master data), de réduire les écarts et d’assurer un processus de gouvernance régulier (suivi hebdomadaire + activités RUN). Ce rôle garantit que le référentiel utilisateurs HERO reste propre, dédupliqué, à jour et cohérent avec les services souscrits et les rôles attribués, tout en pilotant proactivement les actions correctives en coordination avec les équipes concernées (PS, L3, etc.). 2 – PRINCIPALES ACTIVITÉS ET RESPONSABILITÉS 1. Gouvernance du cycle de vie des utilisateurs (RUN) Identifier les utilisateurs actifs à désactiver sur la base d’analyses (date de dernière connexion et/ou date de fin de contrat) et intégrer ce contrôle dans le suivi régulier. Gérer les demandes de chargement en cours ou en attente : VPO, GM manquants, manquants et utilisateurs manquants. Intégrer dans HERO les utilisateurs résiduels mis de côté lors de la migration initiale : préparer la liste, soumettre à arbitrage (à inclure / déjà ajoutés / à exclure), exécuter le chargement et réaliser les contrôles/validations. 2. Qualité des données & complétude des identifiants S’assurer que tous les utilisateurs appartenant à des entités abonnées à Docebo ou SmartRecruiter disposent d’un ID Docebo / SmartRecruiter. En cas d’absence : collecter les identifiants et mettre à jour HERO (avec le support des équipes PS). 3. Déduplication & fiabilité des données de référence Identifier les doublons dans HERO via des investigations (nom, prénom, code, correspondances approximatives/fuzzy matching). Déterminer le compte à conserver et celui à supprimer. Effectuer la suppression après mise à jour préalable des ID Docebo / SmartRecruiter, identifiants, emails et rôles dans HERO. Suivre et valider les mises à jour dans les outils tiers (Docebo / SmartRecruiter) avec le support L3. 4. Cohérence abonnements / services / rôles Identifier les écarts entre les services souscrits au niveau entité et ceux souscrits au niveau utilisateur, puis ouvrir et suivre les demandes de correction si nécessaire. Identifier les incohérences entre rôles et abonnements, par exemple : un rôle existe alors que le service est positionné sur “Non” un rôle “power user” sans niveau spécifié un nombre de rôles attribués supérieur au maximum autorisé par le package un service souscrit dans HERO mais absent dans ServiceNow (ou inversement) 5. Complétude fonctionnelle des données Identifier les champs de données fonctionnellement obligatoires selon les services souscrits. Extraire la liste des utilisateurs pour lesquels ces champs obligatoires sont manquants. 6. Suivi & reporting de la qualité des données Produire chaque semaine les principaux KPI de qualité des données, notamment : ID Docebo / SmartRecruiter manquants incohérences services / rôles champs obligatoires manquants par service 7. Alignement Identité / Annuaire (Entra ID) Identifier les comptes nominatifs présents dans HERO mais absents du groupe Entra ID. Mettre à jour et maintenir le groupe Entra ID. 8. Contrôles globaux de cohérence HERO Détecter les incohérences structurelles, par exemple : un sans rôle GM attribué mais avec des utilisateurs rattachés un décalage entre l’email de connexion et le groupe " Nominatif / deskless” 3 – COMPÉTENCES REQUISES Hard Skills Analyse de données, qualité des données, détection d’anomalies et déduplication Forte capacité à réaliser des extractions, contrôles et réconciliations multi-systèmes (référentiels + outils tiers) Maîtrise avancée SQL / Excel (ou équivalent) et capacité à industrialiser les contrôles (scripts / requêtes / règles) Compréhension des concepts IAM (identités, groupes, annuaires) appréciée Soft Skills Grande rigueur, sens du détail et esprit d’investigation / résolution de problèmes Capacité à piloter la résolution d’incidents (collecte d’informations, relances, coordination) Communication claire (reporting, synthèse, priorisation)
Freelance
CDI

Offre d'emploi
Data Ops Engineer

VISIAN
Publiée le
Ansible
DevOps

1 an
40k-45k €
400-520 €
Île-de-France, France
Data Ops Engineer - Streaming PlatformContexte Le pôle technologique conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités du groupe. En tant que data ops engineer, vous rejoindrez l'équipe Interfaces, répartie en 3 squads orientées produit dont le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production. Plus particulièrement vous intégrerez la squad qui est composée de 7 personnes et qui gère le build et le run de la plateforme streaming composée de plus de 30 clusters Kafka dédiés. En tant que Devops Streaming, vous évoluerez dans un environnement technique complexe, distribué, sécurisé et hautement disponible. Vous travaillerez au sein d'une dev team affectée à un produit en particulier et serez sollicité en fonction de vos expertises pour accompagner les autres dev teams data. Description des missions Mise en œuvre opérationnelle et techniques de la plateforme Streaming Industrialiser et automatiser les déploiements avec Ansible Documenter les offres Apporter une expertise technique aux utilisateurs de la plateforme Mettre en production de nouveaux clusters et mettre à l'échelle les clusters existants (scale horizontal et vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Développer des prototypes en lien avec les cas d'usages des entités Démontrer la valeur des offres Data auprès des entités
Freelance

Mission freelance
FREELANCE – Lead Analytics (H/F)

Jane Hope
Publiée le
Azure Data Factory
Azure Synapse
DAX

6 mois
450-550 €
Lille, Hauts-de-France
Notre client, basé à Lille (59), est à la recherche d’un Lead Analytics (H/F) freelance pour être le référent technique et le manager de proximité de la verticale Analytics au sein du département IA & Data. MISSIONS Vous vous placez au cœur de la chaine de valeur analytique : vous produisez, structurez, accompagnez la montée en compétences des équipes et de la plateforme data. Objectifs court terme : · Prendre en main l'équipe et établir une relation de confiance avec les Data Analysts dans les 3 zones géographiques · Auditer l'état du portefeuille analytique existant (rapports, dashboards, modèles de données) et comprendre les priorités · Livrer des cas d'usage analytiques à fort impact pour démontrer la valeur de la verticale. Objectifs long terme : · Contribuer à la feuille de route analytique alignée sur les priorités business et la stratégie Data & AI · Faire monter en maturité l'équipe sur les pratiques avancées d'analyse et l'usage de Microsoft Fabric / Power BI · Développer un modèle de self-service analytics fiable, gouverné et scalable pour les métiers · Établir un cadre de mesure de la valeur créée par la verticale (adoption, qualité, impact business) Responsabilités techniques : · Concevoir, développer et maintenir des modèles sémantiques et dashboards Power BI complexes · Produire des analyses et des requêtes avancées pour répondre aux questions business stratégiques · Assurer la qualité et la cohérence des données analytiques exposées aux métiers · Documenter les logiques de calcul, les sources et les définitions de métriques · Réaliser des revues de code et du pair-programming avec les Data Analysts de l'équipe Responsabilité managériale : · Animer l'équipe d’environ 7 Data Analysts répartis en Europe, Amérique du Nord et Russie · Conduire les entretiens individuels, fixer les objectifs et accompagner le développement professionnel · Piloter le cycle d'évaluation annuelle de l'équipe (performance, développement, plan de progression) · Assurer la montée en compétence des équipes sur les outils et pratiques analytiques (Microsoft Fabric, Power BI, DAX) · Gérer le budget de la verticale Analytics et en assurer le suivi · Gérer la relation avec les fournisseurs et partenaires externes liés aux outils et services analytiques · Représenter la verticale Analytics dans les instances de gouvernance du département AI & Data · Coordonner avec les autres verticales (Data Platform, Data Delivery, Data Governance) pour fluidifier les livraisons ENVIRONNEMENT TECHNIQUE · Microsoft Fabric : PowerBI, Lakehouse, Onelake · DAX, Power Query · SQL · Azure Data : Azure Data Lake, Synapse
Freelance

Mission freelance
IA Ready Analyst

ESENCA
Publiée le
Business Analyst
GenAI
Large Language Model (LLM)

1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : IA Ready Lead Position dans l’organisation Le/la IA Ready Analyst prépare et structure les contenus nécessaires au bon fonctionnement des solutions d’intelligence artificielle (copilots, agents, RAG). Il/elle intervient en amont du delivery pour garantir la qualité, la cohérence et l’exploitabilité des bases de connaissances. Encadrement Aucun management direct Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de l’adoption et de la conformité Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Ready Analyst est responsable de la préparation fonctionnelle des connaissances et contenus utilisés par les solutions d’intelligence artificielle. Il/elle structure les bases de connaissances, garantit leur qualité sémantique, leur cohérence métier et leur traçabilité, et contribue à leur industrialisation pour permettre un usage fiable et performant de l’IA. Responsabilités principales 1. Préparation des contenus IA Identifier et exploiter les sources nécessaires aux cas d’usage IA Structurer, nettoyer et enrichir les bases de connaissances Définir la classification métier (taxonomie, tagging, hiérarchie) Préparer les contenus pour les usages RAG (segmentation, granularité adaptée) 2. Analyse fonctionnelle Comprendre les processus métiers pour organiser les connaissances Définir les règles d’inclusion et d’exclusion des contenus Garantir la cohérence sémantique entre documents et référentiels Assurer l’alignement avec les besoins fonctionnels des cas d’usage 3. Coordination opérationnelle Collaborer avec les équipes IT pour la mise à disposition des données Travailler avec les équipes Data pour l’alignement avec les référentiels Coordonner avec les équipes IA Delivery pour valider la complétude des contenus Contribuer aux spécifications fonctionnelles liées à l’indexation et à l’exploitation des données 4. Qualité des données et des contenus Identifier les doublons, incohérences, obsolescences et manques Appliquer les règles de qualité définies Garantir la lisibilité, la fiabilité et la pertinence des connaissances Améliorer en continu la qualité des bases de connaissances 5. Documentation et gouvernance Maintenir la documentation fonctionnelle des bases IA Appliquer les règles de gouvernance des connaissances Mettre en place et suivre les processus de mise à jour Assurer la pérennité et la maintenabilité des contenus 6. Contribution à la conformité Garantir la traçabilité des sources utilisées Veiller à l’absence de données sensibles non nécessaires Contribuer aux exigences réglementaires (ex : RGPD, cadre IA) Fournir les éléments nécessaires aux équipes en charge de la conformité 7. Industrialisation et réutilisation Appliquer les standards IA Ready sur les nouveaux cas d’usage Maintenir des modèles de connaissances réutilisables Capitaliser sur les retours d’expérience Diffuser les bonnes pratiques de structuration des contenus
Freelance

Mission freelance
IA Ready Lead

ESENCA
Publiée le
Agent IA
GenAI
Pilotage

1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la IA Ready Lead pilote la préparation et la structuration des données et connaissances nécessaires aux systèmes d’intelligence artificielle. Il/elle encadre une équipe dédiée à la mise en qualité des contenus et à leur exploitation optimale pour les solutions IA (copilots, agents, RAG). Encadrement Management d’une équipe spécialisée pouvant inclure : Knowledge Manager IA Ready Data / IA Ready Analyst Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de la conformité et de l’adoption Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets spécialisés Mission Le/la IA Ready Lead est responsable de la préparation fonctionnelle, sémantique et organisationnelle des données utilisées par les solutions d’intelligence artificielle. Il/elle garantit la disponibilité, la qualité, la cohérence et la traçabilité des bases de connaissances, et définit les standards permettant d’optimiser la performance des systèmes IA. Responsabilités principales 1. Définition de la stratégie IA Ready Définir la stratégie de préparation des données pour l’IA Identifier et cartographier les sources de connaissances Prioriser les sources en fonction des cas d’usage Définir l’architecture fonctionnelle des bases de connaissances 2. Standards de structuration et performance RAG Définir les standards de structuration des contenus (taxonomie, tagging, hiérarchie) Définir les règles de segmentation (chunking) adaptées aux usages IA Fixer les niveaux de granularité optimaux pour la recherche par similarité Définir les critères de qualité permettant d’améliorer la pertinence des réponses 3. Pilotage de la préparation des contenus Qualifier les besoins de contenus avec les équipes IA Delivery Superviser la structuration, le nettoyage et l’enrichissement des données Définir les critères d’acceptation IA Ready (qualité, complétude, fraîcheur) Garantir la cohérence sémantique et métier des bases de connaissances 4. Coordination transverse Collaborer avec les équipes IT pour l’ingestion et la mise à disposition des données Travailler avec les équipes Data pour l’alignement avec les référentiels Coordonner avec les équipes IA Delivery pour assurer l’adéquation avec les cas d’usage Organiser les boucles de feedback entre usage et amélioration des contenus 5. Gouvernance et documentation Définir les standards de documentation des bases de connaissances Mettre en place les règles de gouvernance (ownership, validation, versioning) Structurer les processus de mise à jour et de maintenance Garantir la traçabilité des sources et des transformations 6. Qualité et fiabilité des données Définir les règles de qualité des données IA Mettre en place des contrôles et indicateurs de qualité Suivre les écarts et piloter les plans d’amélioration Garantir la fiabilité et la lisibilité des contenus 7. Industrialisation et réutilisation Concevoir des modèles de connaissances réutilisables Standardiser les pratiques IA Ready Capitaliser sur les retours d’expérience Diffuser les bonnes pratiques au sein de l’organisation 8. Contribution à la conformité Assurer la traçabilité des sources utilisées Veiller au respect des règles de protection des données Contribuer aux exigences des équipes en charge de la conformité
Freelance

Mission freelance
Développeur .NET / IA - Bordeaux

Tenth Revolution Group
Publiée le
.NET
Agent IA

6 mois
100-500 €
Bordeaux, Nouvelle-Aquitaine
Développeur .NET Full Backend – Orientation Intelligence Artificielle - Bordeaux Démarrage ASAP. 2 jours de déplacement sur site toutes les deux semaines. Longue mission. Je recherche un Développeur .NET Full Backend passionné par l’Intelligence Artificielle pour concevoir et développer des solutions backend robustes intégrant des capacités d’IA modernes. Vous participerez à la création de services intelligents, APIs scalables et architectures cloud capables d’exploiter des modèles d’IA pour automatiser, analyser et optimiser des processus métiers. Missions : Concevoir et développer des APIs backend performantes en .NET (C#, Core) Concevoir des architectures microservices scalables Intégrer des modèles d’IA / Machine Learning / LLM dans les applications backend Développer des pipelines de données pour alimenter les modèles d’IA Mettre en place des services d’automatisation intelligente Participer à la conception technique et à l’architecture logicielle Optimiser les performances et la sécurité des services Collaborer avec les équipes produit et data Stack technique : Backend : .NET 6/7/8, C#, Core Architecture : Microservices, Clean Architecture, DDD Data : SQL Server, PostgreSQL, Redis Cloud / DevOps : Azure / AWS, Docker, CI/CD IA / Data : intégration d’API d’IA (LLM, NLP) pipelines ML traitement de données API : REST, GraphQL Messaging : RabbitMQ / Kafka Profil recherché : Profil sénior en développement backend .NET Excellente maîtrise de C# et Core Bonne connaissance des architectures backend modernes Intérêt marqué pour l’Intelligence Artificielle et les systèmes intelligents Expérience avec APIs, microservices et cloud Capacité à concevoir des systèmes évolutifs et maintenables
Freelance
CDI

Offre d'emploi
Chef de Projet WMS/Data

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Lille, Hauts-de-France
Contexte Dans le cadre de la modernisation de notre système de gestion d’entrepôt, nous engageons un programme d’implémentation du Warehouse Management System (WMS) MAWM (Manhattan WMS SAAS). L’objectif est de construire un core model et de le déployer progressivement dans 50 entrepôts sur 7 ans. Dans ce contexte, nous lançons un appel d’offres afin de trouver un chef de projet data pour intégrer nos équipes. Objectif de la mission En tant que Chef de Projet Data, votre mission est d'assurer le pont entre les besoins métier Data (Supply Chain/Logistique) et l’équipe produit WMS. Vous serez chargé d’orchestrer et contribuer à l’avancement des chantiers reporting, définition des business terms et de gouvernance de la donnée. Vos responsabilités Sous la responsabilité du responsable data, vous piloterez les chantiers suivants : ● Pilotage : Animation de comités projets et d’ateliers avec les équipes métier et techniques. ● Cadrage : Accompagner les équipes data et produit dans la définition des besoins. ● Design Data : Participer à la définition des objets métier et leur cycle de vie. ● Analytics & Business Intelligence : Concevoir et développer des rapports et dashboards stratégiques pour le pilotage opérationnel de l'entrepôt
205 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous