Trouvez votre prochaine offre d’emploi ou de mission freelance Expert·e protection des données (RGPD, DPO) à Lille
L’Expert·e Protection des Données, souvent appelé·e DPO (Data Protection Officer), est chargé·e de garantir la conformité d’une organisation avec les réglementations sur la protection des données personnelles, telles que le RGPD (Règlement Général sur la Protection des Données). Ce rôle consiste à conseiller, former et accompagner les équipes sur les bonnes pratiques, à veiller à la sécurité des données et à gérer les demandes des individus concernant leurs droits (accès, rectification, suppression). Il ou elle agit également comme point de contact avec les autorités de régulation en cas d’incident ou de contrôle.
Informations sur la rémunération de la fonction Expert·e protection des données (RGPD, DPO).

Mission freelance
Consultant ERP Oracle - Expert
🎯 Contexte de la mission Mission à dimension internationale au sein de la Supply Chain Digital Platform, visant à accompagner la mise en œuvre, le déploiement et le run de la solution OTM (Oracle Transportation Management) dans le cadre du produit Optimus . Optimus est une solution SaaS hautement configurable dédiée à la planification et à l'exécution du transport B2B entre fournisseurs, entrepôts et magasins. L’équipe Transport B2B accompagne les entités du groupe (LMFR, LMES, LMIT, Weldom…) dans l’implémentation, l’évolution et l’optimisation continue de ce produit stratégique. 🛠️ Missions principales Paramétrage de la solution SaaS OTM pour organiser et optimiser les flux de transport Analyse et spécification des besoins pour les intégrations API / Kafka / ESB avec les solutions de l’écosystème (WMS, DESADV, Finance, etc.) Accompagnement du Product Owner et challenge des besoins métiers Mise en œuvre des améliorations fonctionnelles (features, écrans, algorithmes, gestes métiers) Participation active au run de la solution et à sa maintenance évolutive Formation des utilisateurs et rédaction de la documentation fonctionnelle

Mission freelance
UX/UI designer - Expert
🎯 Contexte de la mission Dans le cadre de la conception et de l’optimisation de l’expérience utilisateur pour les services digitaux destinés aux collaborateurs internes et aux clients finaux, une équipe pluridisciplinaire recherche un UX/UI Designer Expert . L’objectif : offrir une expérience fluide, cohérente et innovante, alignée avec les besoins métiers et utilisateurs, tout en respectant les standards du Design System. 🛠️ Missions principales Collaborer étroitement avec le Product Manager et les responsables Business du stream Business Development. Analyser et comprendre en profondeur les besoins et comportements des utilisateurs cibles. Concevoir des wireframes, prototypes interactifs et maquettes haute fidélité pour divers dispositifs et points de contact. Organiser et conduire des tests utilisateurs pour recueillir des feedbacks et itérer sur les designs. Travailler en collaboration avec les développeurs, chefs de produit et autres parties prenantes pour assurer la mise en œuvre réussie des designs. Veiller à la conformité des créations avec le Design System et les meilleures pratiques UX/UI. Rester informé des dernières tendances UX/UI et intégrer ces connaissances dans le travail quotidien.

Mission freelance
Consultant Cyber
NIVEAU Expert Sa mission consiste à protéger les données et la fiabilité du système informatique d'une entreprise. SES REALISATIONS : - apporter et maintenir les différentes solutions de protection pour sécuriser les informations et les données d'une entreprise . - mettre en place les différents processus de sécurité . - garantir la pérennité des systèmes de sécurité . - réaliser un diagnostic du système d'information d'une entreprise dans le but de déceler les éventuels points faibles . - actualiser les systèmes de sécurité en fonction des nouvelles menaces et des dernières technologies.

Offre d'emploi
Data scientist
Nous sommes à la recherche d'un(e) : Data Scientist - Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. - Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). - Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). - Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. - Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. - Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. - Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.

Offre d'emploi
Data Engineer Stambia (F/H)
CDI/ Freelance/ Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous êtes passionné(e) par la gestion, l’intégration et la qualité des données dans un environnement exigeant comme la banque ? Vous aimez structurer, cartographier et rendre les données fiables et exploitables pour les équipes métiers et Data ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la mise à disposition qualitative et sécurisée des données aux équipes Data Analysts, Data Scientists et métiers - Participer à la définition de la politique de la donnée et à la structuration de son cycle de vie dans un contexte bancaire (sécurité, conformité, traçabilité) - Superviser et intégrer les données issues de multiples systèmes bancaires et réglementaires , et contrôler leur qualité avant leur intégration dans le Data Lake - Développer, structurer, cartographier et nettoyer les données tout en respectant les exigences réglementaires (ex : BCBS239, GDPR, RGPD bancaire) - Produire les livrables : flux d’intégration sous Stambia, Data Lake partagé, cartographie des données, documentation technique et reporting
Mission freelance
Data scientist
Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots

Mission freelance
Data Scientist
Nous cherchons un(e) Data Scientist H/F pour un de nos clients situé en région Hauts de France Contexte de la mission Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Ton rôle : Concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM , RAG , agents et chatbots . Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de développement : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (RGPD) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.
Mission freelance
Expert Produit Oracle ERP Cloud – Finance - 3 mois - Lille
Expert Produit Oracle ERP Cloud – Finance - 3 mois - Lille Un de nos importants clients recherche un Expert Produit Oracle ERP Cloud – Finance pour une mission de 3 mois sur Lille. 💼 Expert Produit Oracle ERP Cloud – Finance (Freelance) 📍 Localisation : Lille (France) – Présence hybride ou sur site 📅 Démarrage : ASAP | ⏳ Durée : À définir 🌍 Contexte : Projet à dimension internationale 🗣️ Langue : Anglais professionnel requis 🎯 Contexte de la mission Dans le cadre d’un programme de transformation international, nous recherchons un(e) Expert(e) Produit Oracle ERP Cloud – Finance pour intervenir sur un rôle transverse stratégique au sein d’une équipe basée à Lille. Vous serez garant(e) de la cohérence fonctionnelle de la solution Oracle Cloud Finance, en accompagnant les choix de design, en analysant les impacts transverses et en contribuant à l’optimisation du Core Model. 🧩 Responsabilités principales Assurer la transversalité fonctionnelle de la solution Oracle ERP Cloud Piloter et valider les choix de conception fonctionnelle (Solution Design) Analyser les impacts transverses des paramétrages Contribuer à l’optimisation et à la standardisation du Core Model Finance Accompagner les tests fonctionnels (scénarios, exécution, validation) Travailler sur les sujets SaaS transverses (multi-domaines) Collaborer avec les équipes locales et internationales 📦 Livrables attendus Solution Oracle ERP Finance cohérente et évolutive Documentation des choix de design Plans de tests et résultats associés Suivi des actions d’optimisation du Core Model ✅ Compétences requises Expertise confirmée sur Oracle ERP Cloud – Modules Finance, notamment : Financials, eTax, Intercompany, SLA Role Provisioning, CMK Reporting & Intégration : BICC, OTBI, BIP Interfaces : OIC, API REST, WebServices SOAP Bonne maîtrise des processus financiers transverses Expérience en environnements SaaS et en architecture fonctionnelle Capacité à structurer, challenger et formaliser les décisions fonctionnelles Anglais professionnel impératif (oral et écrit) Vous souhaitez rejoindre un programme ERP stratégique à fort impact international? Postulez!!

Mission freelance
Data Scientist
Contexte Nous recherchons un référent technique IA générative pour concevoir, industrialiser et fiabiliser des solutions en production (LLM, RAG, agents, chatbots) et le traitement de données non structurées (PDF, images). Le projet s’appuie sur des pratiques solides d’ingénierie logicielle et doit évoluer dans un environnement cloud / software engineering (GCP, Python). Mission En tant que Technical Lead IA / MLOps, vous aurez pour missions principales : Concevoir et déployer des architectures robustes pour LLM, RAG, agents et chatbots, en garantissant scalabilité, coût et latence. Développer et maintenir des pipelines de traitement documentaire et multimodal (parsing PDF, OCR, extraction de tables, prétraitement d’images, fusion texte+image). Industrialiser les modèles et services : CI/CD, conteneurisation (Docker/K8s), déploiement, suivi d’expériences, monitoring et observabilité (offline & online). Mettre en place des standards d’ingénierie : code propre, tests automatisés, revues d’architecture, templates projets et documentation vivante. Superviser la qualité des données et la conformité (GDPR), gérer secrets/IAM, et définir des mécanismes de mitigation des risques LLM (hallucinations, injection de prompts, fuite de données). Encadrer et former l’équipe : mentoring, diffusion des bonnes pratiques, participation aux revues de code et aux choix techniques. Mesurer et garantir les indicateurs opérationnels des chatbots/agents (latence, coût, taux de réponse, satisfaction utilisateur).

Offre d'emploi
Data Engineer GCP (F/H)
CDI/Freelance/Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous souhaitez contribuer à la valorisation de la donnée dans un environnement Retail en pleine transformation digitale ? Vous aimez concevoir des pipelines robustes, fiabiliser les flux et exploiter la puissance du cloud GCP ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la fiabilité et la disponibilité des données pour les équipes métiers, Data Analysts et Data Scientists - Définir et mettre en place la gouvernance de la donnée et son cycle de vie dans un contexte Retail (gestion de la donnée client, transactionnelle et produit) - Intégrer et superviser les données issues de multiples sources (e-commerce, magasins, CRM, etc.) dans le Data Lake GCP - Développer, nettoyer et structurer les pipelines de données en assurant leur qualité, sécurité et conformité réglementaire (RGPD) - Produire et maintenir les livrables : Data Lake partagé, cartographie des données, code, reporting et documentation technique

Mission freelance
Data Scientist/MLops/IA
Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Ton rôle : concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots Traitement de données non structurées PDF & documents : parsing, OCR, extraction de tables et de structures. Images : prétraitement, détection/segmentation, compréhension multimodale (image+texte). Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques. Profil recherché 6+ ans d’expérience en Data Science/MLOps
Offre d'emploi
Référent technique Data Scientist - 6 mois - Lille
Référent technique Data Scientist - 6 mois - Lille Un de nos importants clients recherche un Référent technique Data Scientist pour une mission de 6 mois sur Lille. Descriptif de la mission ci-dessous: Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Votre rôle : concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots Traitement de données non structurées PDF & documents : parsing, OCR, extraction de tables et de structures. Images : prétraitement, détection/segmentation, compréhension multimodale (image+texte). Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques. Profil recherché 6+ ans d’expérience en Data Science/MLOps Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.

Mission freelance
Tech Lead Java
Contexte de la mission L'équipe conçoit et développe une plateforme interne permettant à toutes les équipes Data de l’entreprise de définir et d’automatiser des règles de qualité des données exécutées sur les datasets présents dans BigQuery. Ces règles peuvent être définies à partir de requêtes SQL personnalisées ou via des templates prédéfinis appelés Data Quality Metrics, qui mesurent diverses dimensions de la qualité des données : 🧭 Consistency, 🧩 Conformity, 🧱 Integrity, 📏 Completeness, 🎯 Accuracy, ⏱ Timeliness, 🔍 Uniqueness. L’outil permet de : - Planifier l’exécution des règles (scheduling) - Être notifié par email, slack en cas de non-respect des quality gates - Visualiser l’historique des métriques sous forme de graphes 👥 Composition de l'équipe - 1 Développeur Front-end senior (Vue.js) - 1 Développeurs Back-end expert - 1 Product Owner (mi-temps) - 1 Product Manager - 1 Tech Lead (tiers temps) 🧩 Objectifs de la mission En tant que Tech lead, vous serez intégré au cœur de l’équipe et participerez activement à : - La conception et l’implémentation de nouvelles fonctionnalités métier autour des règles et métriques de qualité - L’évolution de l’architecture modulaire du back-end (Spring Boot/Java 21) - L’amélioration de la scalabilité et fiabilité de la plateforme (Kafka, Kafka Stream, Firestore, PostgreSQL, GKE) - La revue de code, le mentorat éventuel et l’amélioration continue de la qualité du code - Le maintien et le monitoring de l'application ⚙️ Stack technique Back-end : - Java 21 - Spring Boot 3 - Kafka, Kafka Streams - Firestore, PostgreSQL - GitHub CI/CD (GitHub Actions) - Déploiement sur Google Cloud (App Engine, GKE) Front-end : - Vue.js, (Svelte éventuellement)

Mission freelance
data ingnénieur
Objectif global :Développer le socle data Loyalty & Quotation Contrainte forte du projet - Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.

Offre d'emploi
Technicien de support applicatif bilingue Allemand (H/F)
Technicien de support applicatif bilingue Allemand (H/F) - Lille Experis Lille recherche pour l'un de ses clients, un technicien helpdesk bilingue allemand (H/F). Missions: Accueillir les sollicitations des utilisateurs par mail ou par téléphone suite à des dysfonctionnements poste de travail, systèmes, réseaux et multiples logiciels métiers A distance (100% par téléphone ou prise en main à distance), traiter le niveau 1 des incidents applicatifs, en réalisant un premier diagnostic, en les résolvant dans un périmètre délimité, grâce notamment à des procédures d'assistance Faire remonter les incidents trop complexes et /ou trop chronophages à des experts confirmés Suivre les incidents de l'ouverture à la clôture une fois résolus Enrichir la base de données mise à disposition pour la résolution des incidents
Mission freelance
ARCHITECTE TECHNIQUE
Vos missions principales seront les suivantes : Définir les architectures cibles : Concevoir et documenter les architectures techniques (HLD/LLD) pour les nouvelles solutions IAM, en assurant leur cohérence avec l'écosystème du client (Cloud, Sécurité, Data). Conseiller et évangéliser : Accompagner les équipes produits et les Business Units dans le choix et l'intégration des meilleures solutions d'identité, en promouvant les standards et les bonnes pratiques. Expertise technique : Apporter une expertise pointue sur nos solutions socles, notamment One Identity Manager pour l'Identity Governance and Administration (IGA) et la suite Ping Identity (PingFederate, PingAccess) pour le SSO, la fédération d'identité et la sécurisation des APIs. Gestion des annuaires : Contribuer à la stratégie de modernisation et de rationalisation de nos annuaires LDAP, en définissant les plans de migration et les modèles de données cibles. Sécurité et conformité : Garantir que les solutions conçues sont conformes aux politiques de sécurité du groupe et aux réglementations en vigueur (RGPD, etc.).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.