Trouvez votre prochaine offre d’emploi ou de mission freelance Expert·e protection des données (RGPD, DPO) à Paris

L’Expert·e Protection des Données, souvent appelé·e DPO (Data Protection Officer), est chargé·e de garantir la conformité d’une organisation avec les réglementations sur la protection des données personnelles, telles que le RGPD (Règlement Général sur la Protection des Données). Ce rôle consiste à conseiller, former et accompagner les équipes sur les bonnes pratiques, à veiller à la sécurité des données et à gérer les demandes des individus concernant leurs droits (accès, rectification, suppression). Il ou elle agit également comme point de contact avec les autorités de régulation en cas d’incident ou de contrôle.
Informations sur la rémunération de la fonction Expert·e protection des données (RGPD, DPO).

Votre recherche renvoie 416 résultats.
Freelance
CDI
CDD

Offre d'emploi
Expert KYC / PMO Transformation (F/H)

Publiée le
Gestion de projet
Gestion des risques
Know your customer (KYC)

3 ans
60k-80k €
560-700 €
Paris, France
Télétravail partiel
CONTEXTE Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Contexte de la mission Au sein du département CIB Operations – Client Engagement and Financial Security, l’équipe Financial Security Office agit en tant qu’équipe transversale sur les sujets de transformation opérationnels relatifs à la sécurité financière, et notamment du KYC. La mission principale consiste à intervenir en tant qu’expert sur l’implémentation des politiques KYC pour l’ensemble de CIB. Objectif principal Être l’expert et le référent sur l’implémentation des politiques KYC pour tout CIB. Cela veut dire : comprendre les règles, mesurer leurs impacts, rédiger les procédures claires, et accompagner les équipes dans leur mise en œuvre. Missions principales • Être le point central dans le recueil, l’analyse et l’implémentation des politiques KYC : • Étude d’impact, rédaction et diffusion des guidelines opérationnelles • Conseil et support aux équipes concernées • Cadrer le scope et les objectifs des projets, en intégrant les différents stakeholders et en veillant à la faisabilité technique • Répondre aux demandes d’étude d’impact émises par le management • Coordonner les Régions et s’assurer de la bonne application de la stratégie définie par le Management • Définir les macro-plannings et les livrables associés • Gérer et anticiper les risques ainsi que les aléas liés aux projets
Freelance

Mission freelance
Administrateur d'outils Sénior SAS (SAS 9.4 sous Windows).- avec un minimum de 7 ans d’exp

Publiée le
SAS

12 mois
Paris, France
Télétravail partiel
Administrateur d'outils Sénior SAS (SAS 9.4 sous Windows).- avec un minimum de 7 ans d’expériences sur des projets similaires. La plateforme hébergeant ces données est basée sur la solution SAS (SAS 9.4 sous Windows). Les outils de reporting utilisent les solutions Qlik : QlikView, QlikSense, Geonalytics. Des évolutions sont à prévoir pour moderniser notre plateforme pour servir de nouveaux usages dans l’entreprise Localisation Paris 15e/ Télétravail Durée de la mission : 2 ans Projet : Mettre à la disposition des métiers, via une plateforme BI, les données et outils nécessaires aux études et aux reportings de l’entreprise. La plateforme hébergeant ces données est basée sur la solution SAS (SAS 9.4 sous Windows). Les outils de reporting utilisent les solutions Qlik : QlikView, QlikSense, Geonalytics. Des évolutions sont à prévoir pour moderniser notre plateforme pour servir de nouveaux usages dans l’entreprise Nous recherchons un candidat expérimenté en SAS pour assurer les tâches suivantes : Suivi quotidien des batchs et traitement des éventuels incidents avec communication auprès des utilisateurs impactés et des contributeurs IT pour résoudre les éventuels problèmes Livraison du code développé dans l’équipe dans les environnements de RE7 et PRODUCTION via l’outil GITLAB Revue de code lors des livraisons pour s’assurer de l’application des normes de développement en vigueur dans le service Gestion des habilitations pour accéder aux données associées. Maintenance d’une application SAS permettant de poser de façon automatique les droits sur les librairies SAS au regard des usages validés par le DPO. Support utilisateurs pour résoudre des problèmes techniques Prise en charge des développements nécessaires lors des VM (Versions Majeures du SI 2 fois par an) amenant des évolutions dans notre infocentre SAS Prise en charge de demandes d’intervention type correction d’anomalie ou petite évolution : code, ordonnancement et mise à jour documentaire
Freelance
CDI

Offre d'emploi
Consultant Sécurité DORA

Publiée le
DORA
Endpoint detection and response (EDR)
Firewall

1 an
Paris, France
Télétravail partiel
Profil – Expert Sécurité / Conformité DORA Localisation : Paris 17ᵉ Télétravail : 2 jours par semaine (présentiel complet pendant la période d’intégration – 1 mois) Langues : Anglais opérationnel 🧭 Compétences principales Réglementation DORA (Digital Operational Resilience Act) : Très bonne maîtrise des exigences de conformité, gouvernance, gestion des risques ICT, et continuité d’activité. Conformité & Sécurité Opérationnelle : Contribution à la mise en conformité DORA, alignement avec les normes ISO 27001, NIS2 et politiques internes de sécurité. Gestion des risques et résilience numérique : Élaboration de plans de résilience, procédures de test et reporting réglementaire. ⚙️ Expertise Technique Sécurité Réseau & Infrastructure : Pare-feu (FW), VPN, Load Balancer, Bastion SSE / SASE (Secure Service Edge) Sécurité des postes & applicative : Protection Endpoint, EDR/XDR Sécurité applicative et durcissement des environnements Contrôle d’accès & surveillance : IAM, PAM, SIEM, supervision de la sécurité
Freelance

Mission freelance
DataOps AWS Engineer -MlOps

Publiée le
Apache Airflow
AWS Cloud
AWS Glue

12 mois
500-580 €
Paris, France
Télétravail partiel
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .
Freelance

Mission freelance
Ingénieur(e) IA / ML Ops senior

Publiée le
.NET Framework

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 6 ans et plus Métiers Fonctions : Etudes & Développement, Ingénieur Spécialités technologiques : Versionning, Gestion de configuration ML, Monitoring, RGPD, Automatisation des test Compétences Technologies et Outils GitHub CI/CD GIT MISSIONS En tant qu’ingénieur(e) IA / ML Ops senior, vos principales missions sont de : - Gérer le portefeuille de cas d’usage d’IA (ML/deeplearning, IA Gen, agentique) pour un ou plusieurs départements. - Être le référent IA auprès de vos différents interlocuteurs : chef de projets, développeurs, architectes, métiers, partenaires internes et externes. - Accompagner les directions dans le cadrage de leurs cas d’usage et traduire les besoins métiers en spécifications techniques. - Contribuer à la modélisation de votre portefeuille de cas d’usage : - S’assurer que les modèles développés respectent les standards de performance, robustesse, explicabilité et conformité. Garantir que les modèles / cas d’usage développés soient parfaitement industrialisables. - Mettre en place les bonnes pratiques, méthodes de Feature Engineering et de validation des données. - Challenger les approches proposées par les Data Scientists. - Piloter l’industrialisation et le déploiement des modèles IA - Définir et appliquer le cadre ML Ops du groupe : reproductibilité, versioning, automatisation des tests, gouvernance des modèles - Concevoir des architectures IA modulaires, en évaluant en amont ce qui a déjà été développé et en favorisant la mutualisation plutôt que le redéveloppement systématique. Travailler en collaboration étroite avec les autres directions IA pour harmoniser les choix technologiques et accélérer l’industrialisation. - Construire et implémenter les pipelines, CI/CD, monitoring. - S’assurer de la conformité avec les normes internes techniques et réglementaires (cadre normatif / IA act / RGPD). - Garantir la qualité et la conformité - Structurer et diffuser les bonnes pratiques : organisation du code / worflow Git, qualité et tests, ML Ops et reproductibilité (tracking, versioning, CI/CD, orchestration, infra as code, …), sécurité, gouvernance et réutilisabilité, « definition of done », règles d’usage de GitHub Copilot - Auditer et valider les modèles / cas d’usage développés. - Garantir la qualité et la conformité des livrables avant mise en production. - Etablir la traçabilité : documentation, métadonnées, suivi des performances. - Être le point de contact technique privilégié pour les instances de validation. - Encadrer et accompagner les juniors et les collaborateurs dans le domaine de l’IA. - Organiser la montée en compétence progressive et objectivée des juniors. - Jouer un rôle de pédagogue vis-à-vis des métiers pour vulgariser les concepts, les choix technologiques et assurer leur adhésion. - Assurer une veille technologique active sur les outils, frameworks, et paradigmes IA. Proposer de nouvelles solutions / architectures adaptées aux besoins métiers. - Usage Interne / Internal Use - Anticiper les évolutions des réglementations et intégrer les enjeux de responsabilité de l’IA.
CDI
Freelance

Offre d'emploi
Data Scientist - Sécurité & Guardrailing (Gen AI)

Publiée le
CI/CD
Data science
IA Générative

1 an
40k-58k €
380-570 €
Paris, France
Télétravail partiel
Nous souhaitons renforcer la sécurité de solutions IA afin de garantir la protection optimale des données et prévenir les potentielles vulnérabilités. Cette demande vise à intégrer un consultant avec une expérience de la sécurisation des solutions IA Gen et de la gestion des risques de fiabilité et de sécurité : Élaborer et mettre en oeuvre des stratégies de sécurisation. Paramétrer les premiers systèmes de sécurisation adaptés aux solutions IA générative. Il s'agit d'un accompagnement très opérationnel, en interaction avec les équipes de Data et IA enginieering, de nos architectes IA et de nos équipes de sécurité opérationnelles. L'expert s'intégrera notamment dans l'équipe produit "plateforme IA Gen" déjà en place en charge du chantier pour couvrir ces aspects sur lesquels sont expertises est attendue. La mission inclut : L'évaluation des solutions existantes en termes de sécurité. La proposition et mise en oeuvre des améliorations concrètes. Le paramétrage des systèmes de sécurisation adaptés aux solutions IA. La création de protocoles de sécurité et mise en place des mesures immédiates. La formation des équipes internes aux bonnes pratiques de sécurité en IA. Un accompagnement pendant la mise en oeuvre des recommandations. Les livrables incluent : Des scénarios de tests Des composants et des process de sécurisation des IA Gen, notamment par Guardrailing, paramétrés et opérationnels Des rapports d'évaluation de performances Des composants et des process automatiques d'évaluation de performances des mécanismes de sécurisation Des composants d'automatisations de systèmes de sécurisation paramétrés et opérationnels.
Freelance

Mission freelance
[LFR] Ingénierie Stockage Sénior à Paris 17ème - 1001

Publiée le

10 mois
300-520 €
Paris, France
Télétravail partiel
Context: Under Group IT Services Distributed Products, the “Storage” product aims at delivering best in class Storage capabilities ( SAN – Sunset Product, NAS, Hyperconverged ) for the client and the entities. The service will be responsible for the engineering and the operations of new solutions regarding Storage Technologies and its ecosystem, providing service in a global mode with all the regions. As part of its new Cloud Transformation program (ATLAS), the client has decided with its entities to modernize the remaining footprint hosted in the regional datacenters, to be able to be supporting the workloads that are not eligible to the Public Cloud Service : A. Storage Infrastructure Management · Designing and deploying Network-Attached Storage (NAS), and cloud-based storage solutions. · Configuring volumes, and storage tiers based on performance needs. · Optimizing storage performance through tuning and load balancing. · 24/7 and Early morning Organization. · Providing and share documentation ( LLD, Procedure, Process …) B. Data Protection & Backup · Implementing backup and disaster recovery strategies to preventing data loss. · Service for backup solutions if needed. · Developing replication strategies across data centers for business continuity. C. Storage Security & Compliance · Implementing encryption, accessing controls, and role-based permissions to secure stored data. · Ensuring compliance with GDPR, HIPAA, ISO 27001, and other regulatory standards. · Monitoring and preventing ransomware and unauthorized access to storage systems. · Participating to Audit Issue Remediation. D. Capacity Planning & Optimization · Conducting storage utilization analysis and forecasting future storage needs. · Optimizing storage efficiency with features like deduplication, compression, and thin provisioning. · Automating storage management using scripts (Python, Bash, or PowerShell). E. Troubleshooting & Performance Tuning · Identifying and resolving latency, IOPS bottlenecks, or disk failures. · Performing firmware updates, storage patches, and system health checks. · Collaborating with network and database teams to optimizing end-to-end data flow. · Incident Management Expertise’s • NAS NetApp storage expertise – mandatory. • Switch Broadcom expertise – mandatory. • NAS upgrade – mandatory. • NAS Refresh – mandatory. • NetApp Cloud Volume Ontap and/Or AWS FSX N expertise – nice to have • Hyperconverged solution expertise (nice to have): Nutanix, VSAN. • Proven expertise in IT production environment (incident, 24H/7 on duty, early morning organization), with DRP architecture. • Scripting expertise and automation: Python, Ansible, Terraform • Strong general expertise in IT and Datacenter infrastructure architectures • Documentation: LLD, Exploitation Procedure, process, training materials English environment The service is for BAU deliverables( Incident resolution, change ) and will be for integrating a migration factory. The service will be for helping entities to migrate to modern landing zone. Deliverables: • Low Level Designing • Contributing to HLD • All Procedures • Training documentation for handover to business or other SME 🎯 Contexte Dans le cadre du programme de transformation Cloud ATLAS, le client souhaite moderniser les infrastructures de stockage encore hébergées dans les datacenters régionaux. Le service "Storage" de Group IT Services Distributed Products est responsable de l’ingénierie et des opérations des solutions de stockage (NAS, SAN, Hyperconverged), en mode global. 🛠️ Périmètre du service A. Gestion des infrastructures de stockage Conception et déploiement de solutions NAS et cloud. Configuration des volumes et des niveaux de stockage. Optimisation des performances (tuning, load balancing). Organisation 24/7 et astreintes matinales. Documentation technique (LLD, procédures, processus). B. Protection des données & sauvegarde Mise en œuvre de stratégies de sauvegarde et de reprise après sinistre. Services de backup si nécessaire. Stratégies de réplication inter-datacenters. C. Sécurité & conformité du stockage Chiffrement, contrôle d’accès, permissions par rôle. Conformité réglementaire (GDPR, HIPAA, ISO 27001…). Surveillance contre les ransomwares et accès non autorisés. Contribution à la remédiation des audits. D. Planification de capacité & optimisation Analyse d’utilisation et prévision des besoins. Optimisation via déduplication, compression, thin provisioning. Automatisation via scripts (Python, Bash, PowerShell). E. Support & tuning des performances Résolution de problèmes (latence, IOPS, pannes disques). Mises à jour firmware, patchs, vérifications de santé. Collaboration avec les équipes réseau et base de données. Gestion des incidents. 🧠 Expertises requises Obligatoires : NAS NetApp, Switch Broadcom, upgrade/refresh NAS. Souhaitées : NetApp Cloud Volume Ontap / AWS FSxN, Nutanix, VSAN. Expérience en environnement de production IT (astreintes, DRP). Scripting & automatisation : Python, Ansible, Terraform. Connaissances solides en architecture datacenter. Documentation technique complète (LLD, procédures, formations). 📦 Livrables attendus Conception technique détaillée (LLD). Contribution aux conceptions haut niveau (HLD). Procédures opérationnelles. Documentation de formation pour transfert de compétences. • Type de prestation (Client / Hybrid / Remote) : Hybrid – 3 jours de TT • Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 5jr/Semaine • Urgency : Very High • Les astreintes (HNO, etc.) : TBD • La possibilité de renouvellement (oui/non) : Oui
Freelance

Mission freelance
Acheteur IT Senior (Hardware / Software / Matériel)

Publiée le
Microsoft Excel

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Expérience : 10 ans et plus Métiers Fonctions : Métier Non IT,A cheteur Spécialités technologiques : Poste de travail, Workplace,Reporting,RGPD, ERP Au sein de la Direction des Achats, vous rejoignez une organisation en forte transformation numérique. Vous jouez un rôle clé dans la maîtrise des coûts, la sécurisation des relations fournisseurs et la conformité contractuelle des achats IT. Votre expertise contribue directement à la performance opérationnelle et à la conformité des processus vis-à-vis des exigences réglementaires et normatives (ISO 27001, HDS, ISO 20000, DORA). MISSIONS 1. Accompagnement des opérationnels - Conseiller et accompagner les équipes métiers et techniques dans leurs besoins d’achats IT (matériels, logiciels, services). - Assurer le sourcing fournisseurs, l’analyse des offres, la négociation tarifaire et contractuelle. - Garantir l’alignement des propositions avec la stratégie IT et les contraintes budgétaires. 2. Suivi contractuel et pilotage fournisseurs - Assurer le suivi du cycle de vie des contrats (renouvellements, avenants, clôtures). - Piloter la performance des fournisseurs : respect des SLA, qualité de service, conformité réglementaire. - Contribuer à la conformité des pratiques dans le cadre des certifications ISO 27001, HDS, ISO 20000, et DORA. 3. Gestion documentaire et reporting - Rédiger et tenir à jour les documents de synthèse (notes de présentation, fiches de décision, bilans fournisseurs) à destination des signataires, de la Finance et des responsables opérationnels. - Gérer les documents contractuels et opérationnels dans les outils dédiés. 4. Support et outils - Traiter les demandes opérationnelles quotidiennes en lien avec les achats IT. - Assurer la gestion des outils et processus Achats & Financiers (workflow de validation, suivi des investissements, codifications analytiques). Expertise souhaitée Expérience et formation : - 10 ans d’expérience minimum dans les achats IT (hardware, software, matériel). - Connaissance du secteur de l’assurance est un atout apprécié. Compétences techniques : - Maîtrise des procédures d’achat IT et des modèles contractuels associés (licences, maintenance, prestations). - Bonne compréhension des enjeux juridiques et contractuels (propriété intellectuelle, RGPD, sécurité des données, conformité). - Connaissance des certifications ISO liées à la sécurité et aux services IT. - Aisance avec les outils de gestion (ERP, outils de workflow, Excel...).
Freelance

Mission freelance
Lead Data Engineer Senior

Publiée le

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
CDI

Offre d'emploi
Architecte technique applicatif

Publiée le
AWS Cloud
Azure
HashiCorp Vault

60k-70k €
Paris, France
Vous serez en charge de la conception et du pilotage des architectures techniques dans une logique de standardisation, mutualisation des services et industrialisation via l’Infrastructure as Code. Votre rôle Infrastructure & Automatisation Concevoir, automatiser et maintenir des infrastructures Cloud via des outils IaC (Terraform, Ansible, etc.). Gérer des environnements hybrides et multi-cloud Middleware & Architectures applicatives Concevoir des architectures intégrant des couches d’intermédiation performantes et résilientes Déployer des passerelles applicatives sécurisées (Reverse Proxy) et optimisées Flux de données & Intégration Intégrer et transformer des données entre systèmes via ETL et MessageBus (Kafka) Faciliter la circulation des données pour des usages analytiques et IA Sécurité & Gestion des secrets Déployer et gérer HashiCorp Vault pour sécuriser les accès et les clés d’infrastructure et d’application Garantir la conformité et la protection des données sensibles Architecture & Bonnes pratiques Appliquer une architecture hexagonale pour séparer clairement les couches métier, d’infrastructure et d’interfaces Standardiser les pratiques pour optimiser la qualité, la maintenabilité et le testing des systèmes
Freelance

Mission freelance
Chef de projet IA

Publiée le
Python

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Chef de projet Spécialités technologiques : AI, Machine learning, RGPD MISSIONS En tant que Chef de Projets, vos principales missions sont : - Assistance à la définition du besoin métier - Organiser et piloter un portefeuille de projets, dont les interlocuteurs sont soient internes, soient des prestataires externes - Garant du respect du planning général, de l’étude d’opportunité à la mise en œuvre, en passant par le Cadrage Détaillé - Garant des fonctionnalités mises en œuvre, permettant de répondre complètement aux besoins exprimés par les directions - Garant du respect du budget : Suivi mensuel des consommés / du reste à faire - Garant du respect des procédures d’assurance qualité (instances, documentation, …) - Etre le référent auprès des différents interlocuteurs (architectes, infra, Techlead. . .) - Préparer, animer, réaliser le compte rendu de l’ensemble des instances projet (Comité de projet / Ateliers / . . . ) - Être autonome dans la prise en charge des projets, de leur lancement à leur mise en production. - Être force de proposition sur l’amélioration des processus internes du service. Expertise souhaitée - Expérience significative (3+) en conduite de projet IT en milieu bancaire - Leadership d’influence : bon relationnel, rigueur, sens de l'organisation, autonomie, avec capacité à faire avancer des équipes sans lien hiérarchique - Excellente capacité à comprendre et maîtriser les besoins métiers et les impératifs IT - Esprit d'initiative et capacité d'anticipation - Pensée systémique et esprit facilitateur : capacité à anticiper les dépendances et à remonter rapidement les risques, proposer des solutions en partenariat avec l’ensemble des interlocuteurs. Savoir poser les bonnes questions et débloquer les frictions. - Capacités à communiquer avec aisance (écrit et oral) et à faire passer les messages (à l’écrit comme à l’oral) de manière ferme et diplomatique. - Excellente culture de l’IA et des frameworks back / front associés : - Langage de programmation : Python, en DevOps et en MLOps. - Environnement IA AWS : Sagemaker, bedrock, agentcore (…). - Algorithmes de Machine Learning, DL et d’AI Générative, cycle de vie des modèles - Technologies Front-End (Figma, Angular, React etc.) et technologies Back-end (Java SprintBoot, NodeJS, Python etc.). - Bases de données (SQL, NoSQL, graphiques) et des frameworks distribués (Spark, pySpark, SparkSQL, etc.). - Pipelines d'intégration continue/ livraison continue (CI/CD). - Principes de containérisation (Docker, Kubernates) - Connaissance règlementaire (RGPD, IA Act, cadre normatif, gouvernance interne…) - Maîtrise complète impérative des outils bureautiques du pack MS Office - Anglais technique opérationnelle
Freelance
CDI

Offre d'emploi
Data Engineer – Azure / Snowflake / dbt

Publiée le
Azure
DBT
Snowflake

2 ans
Paris, France
Télétravail partiel
Contexte & Objectif de la mission Dans le cadre du renforcement d’une équipe Data de l'un de nos clients du secteur Finance, nous recherchons un Data Engineer confirmé pour contribuer à la conception, au déploiement et à l’industrialisation des plateformes de données sur Azure et Snowflake. Vous interviendrez sur la mise en place de pipelines de données performants, l’automatisation des traitements, et l’implémentation des bonnes pratiques CI/CD, dans un environnement à fort enjeu de qualité et de performance. Rôles & Responsabilités Concevoir, développer et optimiser des pipelines de données dans un environnement Snowflake / Snowpark. Développer et orchestrer des flux via Azure Data Factory et dbt (Python). Intégrer et exploiter des API pour l’ingestion et la diffusion de données. Participer au déploiement et à la gestion de l’infrastructure via Terraform. Mettre en œuvre les pratiques CI/CD sous Azure DevOps. Automatiser les tâches récurrentes (PowerShell, Azure CLI). Contribuer à la modélisation et à l’architecture data (3NF, étoile, data warehouse). Participer à la gouvernance, la qualité et la sécurité des données (RGPD, Data Privacy). Documenter les développements et collaborer avec les équipes techniques et métiers. Environnement technique Azure – Snowflake – dbt (Python/Snowpark) – Azure Data Factory – PowerShell – Azure CLI – Terraform – Azure DevOps – PowerDesigner – Git
Freelance

Mission freelance
Data Scientist – Complexité Moyenne

Publiée le
IA Générative
Sécurité informatique

1 an
500-700 €
Paris, France
Télétravail partiel
Renforcer la sécurisation des solutions d’intelligence artificielle générative dans un contexte d’industrialisation et de déploiement à grande échelle au sein du système d’information. L’objectif est de garantir la conformité, la traçabilité et la protection des données, tout en maîtrisant les risques liés à l’usage de modèles génératifs (fuites d’informations, biais, gouvernance des modèles, etc.), afin d’assurer une intégration fiable et sécurisée dans les environnements métiers de l’entreprise.
Freelance
CDI

Offre d'emploi
Lead Data Engineer – Azure / Snowflake / dbt

Publiée le
Azure
DBT
Snowflake

2 ans
Paris, France
Télétravail partiel
Contexte & Objectif de la mission Dans le cadre d’un projet stratégique de modernisation des plateformes de données, nous recherchons un Lead Data Engineer capable de piloter la conception, l’industrialisation et l’optimisation des flux data sur Azure et Snowflake. Vous interviendrez en tant que référent technique au sein de l’équipe Data Engineering, en apportant votre expertise sur les architectures cloud, la modélisation, la performance et les bonnes pratiques CI/CD. Rôles & Responsabilités Concevoir, développer et optimiser des pipelines de données sous Snowflake / Snowpark. Orchestrer les flux via Azure Data Factory et dbt (Python) pour des traitements fiables et scalables. Intégrer et exposer des APIs pour l’ingestion, la transformation et la diffusion des données. Déployer et administrer l’infrastructure as code via Terraform. Implémenter et superviser les pipelines CI/CD sous Azure DevOps. Automatiser les tâches récurrentes avec PowerShell et Azure CLI. Encadrer la modélisation des données (3NF, étoile) et la mise en œuvre du modèle d’entreprise et du Data Warehouse. Garantir la gouvernance des données, la qualité, la sécurité (RGPD) et le FinOps des plateformes. Assurer la documentation, la supervision et la coordination technique avec les équipes métiers et IT. Environnement technique Azure – Snowflake – dbt (Python/Snowpark) – Azure Data Factory – Terraform – Azure DevOps – PowerShell – Azure CLI – PowerDesigner – Git
Freelance

Mission freelance
Chief Information Security Officer (CISO) H/F

Publiée le
Azure Active Directory
JIRA
Microsoft Power BI

3 ans
600-700 €
Paris, France
Télétravail partiel
Mission principale Piloter la stratégie de sécurité des systèmes d’information du client, garantir la conformité réglementaire (notamment RGPD), et assurer la protection des données et des actifs numériques de l’entreprise. Responsabilités clés Définir et mettre en œuvre la politique de sécurité informatique (SI, réseau, cloud, endpoints). Superviser les audits de sécurité, les tests d’intrusion et les plans de remédiation. Assurer la conformité aux réglementations en vigueur (RGPD, ISO 27001, etc.). Gérer les incidents de sécurité et piloter les plans de continuité et de reprise d’activité. Encadrer les pratiques de confidentialité, de déontologie et de gouvernance des données. Collaborer avec les équipes IT, juridiques et métiers pour intégrer la sécurité dans les projets. Sensibiliser les collaborateurs via des programmes de formation à la cybersécurité. Gérer les licences des outils de sécurité et les relations avec les prestataires.
Freelance
CDI

Offre d'emploi
CONSULTANT AMOA

Publiée le
Confluence
Databricks
JIRA

6 mois
40k-45k €
400-550 €
Paris, France
Télétravail partiel
Je recherche pour un de mes clients de l'assurance : Le prestataire MOA interviendra en appui des équipes métiers pour : • Recueillir et formaliser les besoins fonctionnels, en lien avec les pôles concernés (Data, Inventaire, Modèle, Pilotage…). • Animer les ateliers métiers et assurer la coordination entre les différentes parties prenantes. • Rédiger les spécifications fonctionnelles détaillées, en intégrant les exigences réglementaires (RGPD, sécurité). • Suivre la mise en œuvre des solutions data, en assurant la conformité aux besoins exprimés. • Contribuer à la conduite du changement, notamment par la production de supports de formation, de documentation fonctionnelle et l’accompagnement des utilisateurs. Niveau d’expérience • Expérience confirmée (≥ 3 ans) en MOA Classification • Connaissance du secteur assurance / prévoyance fortement appréciée Compétences clés • Cadrage et formalisation de besoins métiers complexes • Animation d’ateliers multi-directionnels • Rédaction de spécifications fonctionnelles et cahiers de tests • Suivi de conformité réglementaire (RGPD, sécurité) • Pilotage de projets en environnement agile ou hybride • Accompagnement au changement et conduite de formation (support de présentation) Outils maîtrisés • Jira / Confluence / Trello • Suite Office (Excel, PowerPoint, Word) • Outils de modélisation (BPMN, UML) • Notions en environnement data : Databricks, SQL, Unity Catalog, Python • Outils de documentation collaborative

Les questions fréquentes à propos de l’activité d’un Expert·e protection des données (RGPD, DPO)

Quel est le rôle d'un Expert·e protection des données (RGPD, DPO)

L’Expert·e Protection des Données, souvent désigné·e comme DPO (Data Protection Officer), garantit la conformité d’une organisation avec les réglementations en matière de protection des données personnelles, comme le RGPD. Son rôle inclut l’accompagnement juridique et technique, la sensibilisation des équipes, et la gestion des risques liés aux données.

Quels sont les tarifs d'un Expert·e protection des données (RGPD, DPO)

Le tarif varie selon l’expérience, la taille de l’organisation et la complexité des missions. En entreprise, les salaires annuels se situent généralement entre 50 000 et 90 000 euros. En freelance ou en consulting, les tarifs journaliers oscillent entre 600 et 1 200 euros en fonction des besoins spécifiques.

Quelle est la définition d'un Expert·e protection des données (RGPD, DPO)

Un.e Expert·e Protection des Données est un.e professionnel·le chargé·e de veiller à ce que l’utilisation des données personnelles dans une organisation respecte les normes légales, notamment celles du RGPD. Il ou elle joue un rôle clé dans la mise en place de politiques de protection des données et la gestion des éventuels incidents de sécurité.

Quel type de mission peut gérer un Expert·e protection des données (RGPD, DPO)

Les missions incluent la réalisation d’audits de conformité, l’élaboration de politiques et procédures de gestion des données, la sensibilisation et la formation des collaborateurs, la gestion des demandes liées aux droits des individus (droit à l’oubli, portabilité, etc.), et la réponse aux incidents de sécurité tels que les violations de données. Il ou elle peut également être impliqué·e dans la négociation de contrats avec des sous-traitants pour garantir leur conformité.

Quelles sont les compétences principales d'un Expert·e protection des données (RGPD, DPO)

Les compétences clés incluent une excellente connaissance des réglementations en vigueur (RGPD, ePrivacy), des compétences juridiques, une expertise en gestion des risques, et une maîtrise des outils techniques liés à la sécurité des données. Une capacité à vulgariser des concepts complexes et à collaborer avec différents départements est également essentielle.

Quel est le profil idéal pour un Expert·e protection des données (RGPD, DPO)

Le profil idéal allie des compétences juridiques et techniques avec une expérience en gestion des données ou en cybersécurité. Il ou elle doit être rigoureux·se, diplomate, et capable de gérer des problématiques transversales. Une formation en droit, informatique ou gestion des risques, complétée par des certifications comme le CIPP/E ou DPO certifié CNIL, est souvent recherchée. La capacité à travailler sous pression et à anticiper les évolutions réglementaires est également un atout clé.
416 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous