Trouvez votre prochaine offre d’emploi ou de mission freelance Expert·e protection des données (RGPD, DPO) à Lille

L’Expert·e Protection des Données, souvent appelé·e DPO (Data Protection Officer), est chargé·e de garantir la conformité d’une organisation avec les réglementations sur la protection des données personnelles, telles que le RGPD (Règlement Général sur la Protection des Données). Ce rôle consiste à conseiller, former et accompagner les équipes sur les bonnes pratiques, à veiller à la sécurité des données et à gérer les demandes des individus concernant leurs droits (accès, rectification, suppression). Il ou elle agit également comme point de contact avec les autorités de régulation en cas d’incident ou de contrôle.
Informations sur la rémunération de la fonction Expert·e protection des données (RGPD, DPO).

Votre recherche renvoie 48 résultats.
Freelance
CDI
CDD

Offre d'emploi
Administrateur DBA Production Expert

KEONI CONSULTING
Publiée le
AWS Cloud
Nosql
Python

18 mois
20k-60k €
100-520 €
Lille, Hauts-de-France
CONTEXTE l’administrateur de bases de données (DBA) prend en charge des projets techniques tout en contribuant au maintien en condition opérationnelle des environnements SGBD relationnels et NoSQL sur notre Cloud (AWS / MongoDB Atlas). Nous recherchons une personne disposant d’une très bonne maîtrise des concepts SGBD, d’une connaissance approfondie du Cloud AWS, ainsi que d’un solide bagage en développement et en automatisation des systèmes (Python, Terraform, Git). MISSIONS - Être le contact privilégié sur la partie SGBD pour des projets techniques - Mise au point d’outils d’industrialisation, d’automatisation et délégation pour rendre autonome les factories et le pilotage sur des tâches SGBD - Contact régulier avec les architectes, développeurs et chefs de projets - Organisation, réalisation ou délégation des opérations de maintenance technique (type bascule cluster ou architecture répliquée, …) - Optimisations des performances et vigilance sur le capacity planning et la frugalité des environnements - Passage de livraisons applicatives et traitement des demandes courantes - Montée de versions SGBD ; application des patchs de sécurité, upgrade version majeure - Création et duplication d’environnements SGBD (instances / bases / schéma) - Suivi d’incidents avec les supports Editeur (Ex : Oracle Corp, Mongo Inc.) - Suivi des sauvegardes et tests de restauration - Mise en place de la supervision et test d’alerting - Rédaction de procédure pour enrichir la base de connaissances de l’équipe - Assurer une veille technologique : apporter une connaissance des pratiques et technologies émergentes - Astreintes et opérations en heures non ouvrées à prévoir. Astreintes obligatoires à la grille achat (1 semaine / mois lundi>dimanche) Spécificités Cloud - Intégrer de nouvelles solutions Cloud (DynamoDB, DocumentDB, RDS, etc.) au catalogue de service, en mettant au point les parties supervision, sauvegardes, monitoring, mise en production, etc. - Accompagner les factories : conseils sur les traitements applicatifs, le déploiement, l’exploitabilité et le traitement des alertes. Interactions : Equipes d’Exploitation, Factories, Architectes IT, Sécurité, CDP, Observabilité Livrables • Prise en charge des projets techniques tout en participant au maintien en condition opérationnelle des environnements • Mise au point d’outils d’industrialisation, d’automatisation et délégation pour rendre autonome les factories • Passage de livraisons applicatives et traitement des demandes courantes • Suivi d’incidents avec les supports Editeur (Ex : AWS, Mongo Inc.) • Suivi des sauvegardes et tests de restauration • Mise en place de la supervision et test d’alerting • Rédaction de procédure pour enrichir la base de connaissances de l’équipe • Assurer une veille technologique : apporter une connaissance des pratiques et technologies émergentes Le profil recherché ... ... connait le SQL / NoSQL ... connait l’environnement et les différentes technologies de DB sur le cloud AWS … peut nous apporter son expertise technique pour challenger des projets structurants ... est en mesure de nous accompagner dans le développement Infra As Code de nos solutions (Terraform, Ansible, Python) • SQL/noSQL • AWS • InfraAsCode (Python / Terraform / Git) • Architecture applicative • Connaissance en production • Bonne capacité à travailler en équipe • Force de proposition • Capacité de coordination • Autonomie Compétences clés : Obligatoire : Python, Terraform, AWS, Aurora PostgreSQL, Mongodb, Gitlab, Connaissance production.
Freelance

Mission freelance
DEV Expert Backend Node.js

Codezys
Publiée le
Datadog
Mongodb
Monitoring

12 mois
360-400 €
Lille, Hauts-de-France
Contexte de la mission Nous recherchons un expert technique Backend pour renforcer une squad stratégique dédiée à l’ Offer . Cette équipe intervient sur un composant central du système d'information (SI) digital commerce, véritable colonne vertébrale de la plateforme. Elle consolidate l’ensemble des offres produits et services (retail + marketplace) afin d’alimenter tout l’écosystème : site web, commandes omnicanales, encaissement, et autres services liés. La mission s’inscrit dans une transformation majeure du modèle d’offre : passer d’une logique centrée sur le stock en magasin à une stratégie d’offre dynamique, contextualisée en fonction de la localisation géographique et des besoins spécifiques des clients. Organisation de l’équipe 5 développeurs Backend expérimentés 1 Product Owner L’équipe présente une structure autonome, mature, orientée vers la qualité et l’amélioration continue. Enjeux techniques majeurs Volumétrie extrême : environ 20 milliards d’appels API par mois, avec plusieurs centaines de millions d’offres exposées. Performance et robustesse : indispensables et non négociables. Scalabilité et haute disponibilité : garanties essentielles. Architecture : orientée événements (Event-Driven) avec une criticité métier élevée. Culture et méthodologie – Software Craftsmanship Le Test-Driven Development (TDD) est au cœur de la démarche, avec Behavior-Driven Development (BDD) comme source d’inspiration. Application stricte de l’ architecture hexagonale . Intégration de l’approche Domain-Driven Design (DDD) dans toutes les phases de développement. Adhésion à une véritable approche agile, avec une équipe orientée vers l’amélioration continue. Exigence élevée concernant la qualité du code et sa lisibilité. Périmètre fonctionnel et livrables Une offre centrée sur le client, pilotée par zone géographique. Intégration de la disponibilité en temps réel de l’offre. Exposition d’API critiques à l’échelle du groupe. Participation active à l’évolution de l’architecture technique.
Freelance

Mission freelance
Data Analyst Expert

Codezys
Publiée le
Big Data
BigQuery
Data science

12 mois
Lille, Hauts-de-France
Notre Data Analyst devra : Concevoir, développer et mettre en œuvre des modèles d’analyse territoriale afin d’identifier les variables clés influençant les dynamiques locales. Exploiter des données variées telles que les données socio-démographiques, environnementales, concurrentielles, économiques et de marché pour établir des corrélations et réaliser des prédictions. Principales missions : Collecter, nettoyer et structurer des données provenant de sources diverses, qu’elles soient internes ou externes (Systèmes d’Information Géographique, bases démographiques, données climatiques, données de marché, etc.). Développer des modèles statistiques et d’apprentissage automatique pour analyser les relations entre variables et anticiper les évolutions territoriales. Collaborer avec le Chargé d’étude en géomarketing afin d’intégrer des données géospatiales dans les analyses. Concevoir des tableaux de bord interactifs (notamment avec Power BI) et élaborer des visualisations pour faciliter la compréhension des résultats par les décideurs (cartes, graphiques, etc.). Travailler en étroite collaboration avec les experts métier pour affiner les hypothèses, valider les modèles et garantir la pertinence des analyses. Analyse et contact avec le métier : Transformer les besoins métiers en indicateurs pertinents et identifier les sources de données appropriées pour y répondre. Analyser les dynamiques croisées des territoires, notamment en matière socio-démographique, économique, immobilière, environnementale, concurrentielle et de mobilité. Convertir les résultats analytiques en livrables clairs, pédagogiques et exploitables pour les équipes décisionnelles. Gestion des données et traitement : Rédiger des requêtes SQL complexes pour la préparation et l’analyse des données. Garantir la fiabilité, la cohérence et la traçabilité des analyses produites. Participer à l’industrialisation et à la fiabilisation des données à forte valeur ajoutée, en assurant leur architecture et leur modélisation.
Freelance

Mission freelance
Expert en gestion des accès PAM

Codezys
Publiée le
Azure
cyberark
Wallix

12 mois
Lille, Hauts-de-France
Contexte Dans le cadre de la sécurisation des accès critiques et de la transition vers un modèle Zero Trust, une expertise en gestion des accès à privilèges (PAM) est recherchée. Objectifs de la mission Concevoir, déployer et optimiser les stratégies de contrôle d'accès sur un périmètre hybride (datacenters locaux et environnements Cloud GCP et Azure). Intégrer une nouvelle solution PAM, compatible avec les outils existants ou pouvant les remplacer. Responsabilités clés Architecture & Design : Collaborer avec le Tech Lead pour définir et mettre en place une architecture PAM unifiée couvrant l'on-premise et le cloud. Déploiement Multi-Cloud : Configurer les connecteurs et coffres-forts pour sécuriser les consoles d'administration, comptes de service et accès "Break-glass" GCP/Azure. Gestion des Secrets : Implémenter des solutions pour la gestion des secrets dans les pipelines CI/CD et applications, éliminant l'usage de mots de passe en clair. Politiques de Sécurité : Définir les règles de rotation des mots de passe, déployer l'authentification multi-facteurs (MFA) et appliquer le principe du moindre privilège. Migration & Intégration : Superviser l'intégration des comptes à privilèges élevés (Admin Domain, Cloud Admin, Root) dans la solution PAM. Audit & Gouvernance : Mettre en place la journalisation des activités et l'enregistrement des sessions pour assurer conformité et détection SOC.
Freelance

Mission freelance
Data Steward / Référent Gouvernance de la Donnée

ESENCA
Publiée le
Data governance
Data quality
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
🎯 Objectif global Accompagner les équipes produits dans l’exposition, la qualité et la gouvernance de leurs données , afin de garantir des données fiables, cohérentes et conformes aux standards définis. 🧩 Contexte et contraintes Enjeux forts de gouvernance et de qualité des données Nécessité d’une modélisation rigoureuse des données Collaboration transverse avec des équipes data et produits digitaux 📦 Livrables attendus Données exposées conformément aux règles de gouvernance définies Règles de qualité des données déployées et opérationnelles Évaluations régulières du respect des règles de gouvernance de la donnée 🛠️ Description de la mission Au sein d’une équipe data transverse, le Data Steward joue un rôle clé dans l’accompagnement des équipes produits digitaux afin d’assurer une gestion structurée, maîtrisée et cohérente des données tout au long de leur cycle de vie. 🎯 Missions principales Accompagner les équipes produits dans l’exposition de leurs données, en garantissant le respect des règles de gouvernance de données établies Contribuer à la définition, à la formalisation et au déploiement des règles de qualité des données Garantir la certification des données exposées , selon les standards et référentiels en vigueur Évaluer le niveau de conformité des données aux règles de gouvernance Participer à l’amélioration continue des pratiques de gouvernance de la donnée, en coordination avec les autres référents data Sensibiliser et acculturer les équipes aux enjeux de qualité, traçabilité et fiabilité des données 🧠 Compétences techniques requises Confirmé – Impératif Gouvernance de données Qualité des données Confirmé – Important Modélisation de données Confirmé – Souhaitable Environnements Cloud (GCP) Outils de visualisation et reporting (Power BI) 🌍 Compétences linguistiques Français courant – Impératif Anglais professionnel – Secondaire 🤝 Compétences transverses Capacité d’accompagnement et de pédagogie Sens de la rigueur et de la qualité Esprit de collaboration et travail transverse Capacité d’analyse et de synthèse Orientation amélioration continue
Freelance

Mission freelance
Consultant Expert Cybersécurité – CNAPP, PAM & EDR (H/F)

CAT-AMANIA
Publiée le
Cybersécurité

3 mois
400-600 €
Lille, Hauts-de-France
Mission : Consultant Expert Cybersécurité – CNAPP, PAM & EDR (H/F) Nous recherchons un Consultant Expert en Cybersécurité (Freelance) pour accompagner une équipe internationale dans une phase de transition majeure. Vous aurez la double responsabilité de piloter l'implémentation d'une nouvelle solution CNAPP et d'assurer le maintien en condition opérationnelle (MCO) ainsi que l'évolution des solutions PAM et EDR . 🌍 Contexte de la mission Environnement : International, multi-Business Units. Infrastructure : Hybride (On-prem / Azure / GCP). Enjeux : Sécurisation du Cloud (Build) et renforcement de l'existant (Run). 🎯 Vos Responsabilités1. Build : Implémentation du CNAPP Design & Déploiement : Concevoir l'architecture de la solution CNAPP (type Wiz, Prisma Cloud, Orca) pour couvrir le périmètre multi-cloud ( CSPM, CWPP, CIEM ). Gouvernance : Définir les politiques de sécurité ( guardrails ) et les frameworks de conformité avec l'équipe Cloud. Intégration DevSecOps : Automatiser le scan de vulnérabilités et de secrets au sein des pipelines CI/CD. 2. Run & Évolution : PAM (Environnement Hybride) Administration : Gérer le cycle de vie des comptes à hauts privilèges (On-prem et Consoles Cloud). Expansion : Poursuivre l'onboarding des comptes critiques et déployer le Just-in-Time (JIT) access . Maintenance : Garantir la disponibilité du bastion et la gestion des coffres-forts. 3. Run & Évolution : EDR MCO : Superviser le déploiement des agents sur l'ensemble du parc (Workstations & Serveurs). Optimisation : Fine-tuning des politiques de détection pour minimiser les faux positifs. 🛠 Compétences Techniques Requises DomaineNiveau attenduTechnologies cibles (exemples)CNAPPExpert (Impératif) Wiz, Prisma Cloud, Orca PAMConfirmé (Impératif) CyberArk, Wallix, BeyondTrust EDR / XDRConfirmé (Impératif) CrowdStrike, Defender for Endpoint, SentinelOne CloudExpert Azure, GCP (Posture, Workload, Identity) AutomationMaîtrise Terraform, Python, CI/CD pipelines 👤 Profil Recherché Expérience : +7 ans en cybersécurité opérationnelle, avec une expérience probante en déploiement de solutions Sécurité Cloud. Soft Skills : Capacité à travailler dans un contexte international (anglais courant indispensable) et en transverse avec les équipes DevOps et Gouvernance. Rigueur : Excellence rédactionnelle pour les livrables techniques (DAT, dossiers d'exploitation, procédures de remédiation). Référent Technique : Capacité à incarner le rôle d'expert sécurité au sein d'un écosystème DevOps. 📝 Détails Pratiques Code Profil : FR-8.14.3 - DevSecOps-E Durée : Longue mission (visibilité 6 mois+) Localisation : Télétravail / Présentiel selon politique du client. Langue : Anglais Professionnel (Impératif).
Freelance

Mission freelance
Data Scientist / AI Engineer

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Freelance

Mission freelance
Expert Microsoft Azure (H/F)

Insitoo Freelances
Publiée le
Ansible
Node.js
Terraform

2 ans
100-550 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Expert Microsoft Azure (H/F) à Lille, France. Contexte : Nous recherchons une expertise approfondie en Microsoft Azure pour soutenir notre infrastructure cloud. Notre projet nécessite une gestion efficace des environnements Windows et une automatisation des processus via des outils d'Infrastructure as Code tels que Terraform et Ansible. Nous avons également besoin de compétences en développement, notamment en Node.js, pour créer des applications robustes et évolutives. L'utilisation de PowerShell est essentielle pour automatiser les tâches administratives et améliorer l'efficacité opérationnelle. Notre objectif est de moderniser notre infrastructure tout en garantissant la sécurité et la conformité. Nous sommes déterminés à collaborer avec des experts qui peuvent nous aider à atteindre ces objectifs. De plus, nous aurons besoin de compétences sur l'AD, entraID. Les missions attendues par le Expert Microsoft Azure (H/F) : Nous visons à atteindre les objectifs suivants : Optimisation de l'infrastructure cloud via Microsoft Azure. Automatisation des processus avec Terraform et Ansible. Développement d'applications en Node.js. Automatisation des tâches administratives avec PowerShell. Assurer la sécurité et la conformité de l'infrastructure.
CDI
Freelance

Offre d'emploi
Data Engineer (3+ ans d'exp)

WINSIDE Technology
Publiée le
API
DBT
Google Cloud Platform (GCP)

1 an
43k-57k €
360-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer pour une grande entreprise française sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans d'expérience professionnelle à minima en tant que Data Engineer. tu as 2 ans d'expérience professionnelle à minima en dbt, Snowflake ET Semarchy. Missions : Concevoir et développer des pipelines pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Les petits plus du candidat idéale : Connaissances IPAAS Familiarité avec les outils de workflow (Airflow, PubSub). Connaissance développement IA (Python, RAG...) Connaissance GCP (Cloud Provider, nous n'avons pas de Big Query) Démarrage : rapide. TT : 1 jour par semaine. Durée : longue. Localisation : métropole lilloise. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Freelance

Mission freelance
DATA INGENIEUR

HAYS France
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

3 ans
100-520 £GB
Lille, Hauts-de-France
Au sein de la Global Tech & Data Platform (GTDP), le Data Engineer intégrera l’équipe Data transverse et sera responsable de partager les normes et bonnes pratiques Data Engineering au sein de sa plateforme d’appartenance, et ainsi de faire le lien avec nos équipes produits et les métiers. Vous êtes notamment responsable de : - Collecter, gérer et convertir les données en informations exploitables pour tous les utilisateurs de données (digitaux ou métier), - L’organisation d’un modèle physique de données, répondant aux enjeux de Data Mesh, - Mettre en œuvre des méthodes pour améliorer la fiabilité, la qualité, la performance des données ainsi que les aspects Finops, - Garantir la mise en production des données conformément à la gouvernance et à la conformité des données, - Respecter les réglementations du DPO, - Assurer la maintenance et le respect de la stack technique de l’entreprise, - La mise en place d’un cadre de bonnes pratiques visant à améliorer la qualité des développements des flux de données, de leur indicateurs et de leurs suivis en production, - La bonne tenue des rituels agiles de l’équipe et à la veille technologique. CARACTERISTIQUES DU PROFIL DEMANDE : Une expérience significative en Data Engineering (minimum 3 ans d'expériences), idéalement dans le secteur du retail. Bonne maîtrise des streaming platform et traitements des flux (Kafka). De solides compétences sur la stack Google Cloud Platform, notamment BigQuery. De solides connaissances des bases de données et systèmes distribués. Maîtrise de la chaîne DevOps et des outils associés : CI / CD, data-pipelines. Vous ne ressentez aucune difficulté à vous exprimer en anglais. COMPETENCES REQUISES Technique : SQL, NoSQL, Shell, GCP (Big Query, GCS, ...), Pipeline (dbt...), Modélisation de données Transverses : Collaboration, communication, documentation et pédagogie. Méthodologique : Agilité, Git Langues : Français, Anglais
Freelance

Mission freelance
IA Ready Analyst

ESENCA
Publiée le
Business Analyst
GenAI
Large Language Model (LLM)

1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : IA Ready Lead Position dans l’organisation Le/la IA Ready Analyst prépare et structure les contenus nécessaires au bon fonctionnement des solutions d’intelligence artificielle (copilots, agents, RAG). Il/elle intervient en amont du delivery pour garantir la qualité, la cohérence et l’exploitabilité des bases de connaissances. Encadrement Aucun management direct Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de l’adoption et de la conformité Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Ready Analyst est responsable de la préparation fonctionnelle des connaissances et contenus utilisés par les solutions d’intelligence artificielle. Il/elle structure les bases de connaissances, garantit leur qualité sémantique, leur cohérence métier et leur traçabilité, et contribue à leur industrialisation pour permettre un usage fiable et performant de l’IA. Responsabilités principales 1. Préparation des contenus IA Identifier et exploiter les sources nécessaires aux cas d’usage IA Structurer, nettoyer et enrichir les bases de connaissances Définir la classification métier (taxonomie, tagging, hiérarchie) Préparer les contenus pour les usages RAG (segmentation, granularité adaptée) 2. Analyse fonctionnelle Comprendre les processus métiers pour organiser les connaissances Définir les règles d’inclusion et d’exclusion des contenus Garantir la cohérence sémantique entre documents et référentiels Assurer l’alignement avec les besoins fonctionnels des cas d’usage 3. Coordination opérationnelle Collaborer avec les équipes IT pour la mise à disposition des données Travailler avec les équipes Data pour l’alignement avec les référentiels Coordonner avec les équipes IA Delivery pour valider la complétude des contenus Contribuer aux spécifications fonctionnelles liées à l’indexation et à l’exploitation des données 4. Qualité des données et des contenus Identifier les doublons, incohérences, obsolescences et manques Appliquer les règles de qualité définies Garantir la lisibilité, la fiabilité et la pertinence des connaissances Améliorer en continu la qualité des bases de connaissances 5. Documentation et gouvernance Maintenir la documentation fonctionnelle des bases IA Appliquer les règles de gouvernance des connaissances Mettre en place et suivre les processus de mise à jour Assurer la pérennité et la maintenabilité des contenus 6. Contribution à la conformité Garantir la traçabilité des sources utilisées Veiller à l’absence de données sensibles non nécessaires Contribuer aux exigences réglementaires (ex : RGPD, cadre IA) Fournir les éléments nécessaires aux équipes en charge de la conformité 7. Industrialisation et réutilisation Appliquer les standards IA Ready sur les nouveaux cas d’usage Maintenir des modèles de connaissances réutilisables Capitaliser sur les retours d’expérience Diffuser les bonnes pratiques de structuration des contenus
Freelance

Mission freelance
DATA ENGINEER GCP

ESENCA
Publiée le
Apache Airflow
BigQuery
DBT

1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Freelance

Mission freelance
Data Scientist Senior

NEOLYNK
Publiée le
Python
SQL

3 mois
400-500 €
Lille, Hauts-de-France
Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques.
Freelance

Mission freelance
DevSecOps

HAYS France
Publiée le
CrowdStrike
cyberark
Cybersécurité

3 ans
Lille, Hauts-de-France
Dans le cadre d’une transition majeure sur son périmètre de cybersécurité, l’entreprise recherche un consultant expert en sécurité Cloud et en solutions de protection des accès et endpoints . Le consultant interviendra à la fois sur la mise en place d’une nouvelle solution CNAPP couvrant un environnement multi‑cloud (On‑prem / Azure / GCP) et sur le maintien en condition opérationnelle (MCO) des solutions PAM et EDR de l’organisation. Les responsabilités couvrent à la fois des activités BUILD et RUN , incluant la définition de l’architecture, l’intégration DevSecOps, la gestion du cycle de vie des comptes à privilèges et l’optimisation de la détection des menaces sur le parc endpoints.
CDI

Offre d'emploi
Tech Lead SQL/Bash

Codezys
Publiée le
Apache Kafka
API
Bash

Lille, Hauts-de-France
Contexte Nous sommes à la recherche d'un Tech Lead pour intervenir sur des applicatifs liés au référencement des données produits ainsi qu'à la construction de l'offre. Le produit concerné est un système legacy en cours de décommissionnement, qui gère la nomenclature, ainsi que les données commerciales, légales et financières des fournisseurs. Cette mission couvrira l'ensemble du cycle de développement, depuis la conception jusqu'au déploiement et la gestion opérationnelle (run). Vos missions En tant qu'expert, vous serez responsable de l'application des bonnes pratiques de développement, notamment en matière de qualité de code, de revue de code, de pair programming et de performances. Vous garantirez la cohérence des choix technologiques et applicatifs pour l'ensemble des solutions. Vous devrez rapidement assimiler l'écosystème et le contexte BASA. Vous prendrez en charge la montée en compétences sur GIT pour le produit, en accompagnant l'équipe dans cette transition. Vous serez également responsable de la mise en place et du maintien des pipelines CI/CD pour le déploiement. Vous réaliserez le développement d'API et travaillerez sur les nouvelles technologies, notamment Carbon. Vous assurerez une veille technologique continue afin d'optimiser le produit et d'anticiper les évolutions.
CDI

Offre d'emploi
Tech Lead Python

Webnet
Publiée le
Python

50k-55k €
Lille, Hauts-de-France
📍 Tourcoing ⏱ Démarrage : ASAP 💰 Rémunération : 50–55 K€ brut annuel Contexte Dans le cadre d’un vaste programme de transformation numérique, un acteur majeur du secteur public à fort impact territorial modernise son système d’information : refonte de l’ERP, évolution du SIRH, structuration de la plateforme data, ouverture du SI via des APIs et services découplés. Votre rôle : En tant que Tech Lead Python, vous êtes le référent technique des équipes de développement. Vous intervenez à la fois sur la conception des solutions , les choix technologiques , la qualité du code et la montée en compétences des développeurs . Missions principales : Piloter les choix techniques (langages, frameworks, patterns, outillage) Concevoir et valider des architectures applicatives modernes (APIs, microservices, services découplés) Encadrer le développement backend et frontend Garantir la qualité du code , la performance et la sécurité des applications Mettre en œuvre les bonnes pratiques DevSecOps Participer aux arbitrages techniques structurants avec les chefs de projet Rédiger et maintenir la documentation technique Accompagner et former les développeurs (mentorat, revues de code) Collaborer avec des partenaires externes et assurer la cohérence globale du SI Environnement technique : Backend : Python Frontend : Angular, JavaScript / TypeScript Architecture : APIs REST, microservices, SI modulaire Conteneurisation & orchestration : Docker, K3s Sécurité : sécurité applicative, gestion des flux, bonnes pratiques RGPD Méthodologies : DevSecOps, normes et standards d’architecture Documentation & gouvernance : référentiels type TOGAF (appréciés)

Les questions fréquentes à propos de l’activité d’un Expert·e protection des données (RGPD, DPO)

Quel est le rôle d'un Expert·e protection des données (RGPD, DPO)

L’Expert·e Protection des Données, souvent désigné·e comme DPO (Data Protection Officer), garantit la conformité d’une organisation avec les réglementations en matière de protection des données personnelles, comme le RGPD. Son rôle inclut l’accompagnement juridique et technique, la sensibilisation des équipes, et la gestion des risques liés aux données.

Quels sont les tarifs d'un Expert·e protection des données (RGPD, DPO)

Le tarif varie selon l’expérience, la taille de l’organisation et la complexité des missions. En entreprise, les salaires annuels se situent généralement entre 50 000 et 90 000 euros. En freelance ou en consulting, les tarifs journaliers oscillent entre 600 et 1 200 euros en fonction des besoins spécifiques.

Quelle est la définition d'un Expert·e protection des données (RGPD, DPO)

Un.e Expert·e Protection des Données est un.e professionnel·le chargé·e de veiller à ce que l’utilisation des données personnelles dans une organisation respecte les normes légales, notamment celles du RGPD. Il ou elle joue un rôle clé dans la mise en place de politiques de protection des données et la gestion des éventuels incidents de sécurité.

Quel type de mission peut gérer un Expert·e protection des données (RGPD, DPO)

Les missions incluent la réalisation d’audits de conformité, l’élaboration de politiques et procédures de gestion des données, la sensibilisation et la formation des collaborateurs, la gestion des demandes liées aux droits des individus (droit à l’oubli, portabilité, etc.), et la réponse aux incidents de sécurité tels que les violations de données. Il ou elle peut également être impliqué·e dans la négociation de contrats avec des sous-traitants pour garantir leur conformité.

Quelles sont les compétences principales d'un Expert·e protection des données (RGPD, DPO)

Les compétences clés incluent une excellente connaissance des réglementations en vigueur (RGPD, ePrivacy), des compétences juridiques, une expertise en gestion des risques, et une maîtrise des outils techniques liés à la sécurité des données. Une capacité à vulgariser des concepts complexes et à collaborer avec différents départements est également essentielle.

Quel est le profil idéal pour un Expert·e protection des données (RGPD, DPO)

Le profil idéal allie des compétences juridiques et techniques avec une expérience en gestion des données ou en cybersécurité. Il ou elle doit être rigoureux·se, diplomate, et capable de gérer des problématiques transversales. Une formation en droit, informatique ou gestion des risques, complétée par des certifications comme le CIPP/E ou DPO certifié CNIL, est souvent recherchée. La capacité à travailler sous pression et à anticiper les évolutions réglementaires est également un atout clé.
48 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lille, Hauts-de-France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous