Trouvez votre prochaine offre d’emploi ou de mission freelance Expert·e protection des données (RGPD, DPO)

L’Expert·e Protection des Données, souvent appelé·e DPO (Data Protection Officer), est chargé·e de garantir la conformité d’une organisation avec les réglementations sur la protection des données personnelles, telles que le RGPD (Règlement Général sur la Protection des Données). Ce rôle consiste à conseiller, former et accompagner les équipes sur les bonnes pratiques, à veiller à la sécurité des données et à gérer les demandes des individus concernant leurs droits (accès, rectification, suppression). Il ou elle agit également comme point de contact avec les autorités de régulation en cas d’incident ou de contrôle.
Informations sur la rémunération de la fonction Expert·e protection des données (RGPD, DPO).

Votre recherche renvoie 1 138 résultats.
Freelance

Mission freelance
Architecte Base de données (F/H)

CELAD
Publiée le
Exadata
Microsoft SQL Server
Oracle

1 an
500-600 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 🏠 Télétravail flexible - 📍 Clermont-Ferrand - 🛠 Expérience de 10 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Architecte Base de données pour intervenir chez un de nos clients. Vous aimez concevoir des architectures data robustes et faire le lien entre technique et produit ? Cette mission devrait vous parler. Voici un aperçu détaillé de vos missions : 🎯 Au quotidien, vous intervenez sur la définition et l’évolution de solutions autour des bases de données : - Concevoir les architectures (HLD/LLD) et contribuer aux choix techniques - Définir et améliorer les procédures d’exploitation - Collaborer avec les équipes produit sur des solutions applicatives complexes - Sélectionner et qualifier les environnements d’exécution (on-premise, cloud, appliances) - Assurer une veille active pour anticiper les évolutions technologiques
Freelance
CDI

Offre d'emploi
Expert(e) IA / Architecte Solutions IA

Halian
Publiée le
AI
API
Large Language Model (LLM)

5 ans
Paris, France
Contexte Une organisation internationale de premier plan accélère sa transformation digitale et l’adoption de l’Intelligence Artificielle au sein de plusieurs domaines métiers. Dans ce cadre, elle renforce ses capacités de delivery IA afin de passer de cas d’usage expérimentaux à des solutions robustes, industrialisées et déployées en production. Vous rejoindrez une équipe transverse dédiée à l’innovation et à la transformation, intervenant auprès de plusieurs équipes métiers et IT, avec un fort accent sur l’industrialisation, la gouvernance et la création de valeur long terme. Responsabilités Concevoir et déployer des solutions IA de bout en bout, depuis l’expression du besoin métier jusqu’à la mise en production Traduire les exigences fonctionnelles en architectures techniques scalables, sécurisées et maintenables Développer des cas d’usage IA tels que l’intelligence documentaire, les assistants conversationnels, l’automatisation et la génération de contenu Mettre en œuvre des solutions d’IA générative (LLM, RAG, workflows à base d’agents) intégrées aux systèmes internes Accompagner l’industrialisation via des pipelines CI/CD, des pratiques MLOps, le monitoring et l’optimisation des modèles Garantir la conformité avec les exigences de protection des données, de sécurité et les principes d’IA responsable Profil recherché Solide expérience dans le développement et le déploiement de solutions IA / machine learning en environnement de production Excellente base en ingénierie logicielle, APIs et architectures microservices Expérience pratique des solutions d’IA générative, LLM et du prompt engineering Bonne compréhension des plateformes cloud et des pratiques d’industrialisation IA (CI/CD, MLOps) Capacité à évoluer dans des environnements complexes, internationaux et multi‑parties prenantes Excellentes compétences en communication, avec une aptitude à faire le lien entre enjeux métiers et techniques
Freelance
CDI

Offre d'emploi
Expert Jira

Deodis
Publiée le
Atlassian
JIRA

12 mois
40k-41k €
400-500 €
Montpellier, Occitanie
Contexte de la mission Dans le cadre de l’exploitation, de l’évolution et de la transformation de sa plateforme Atlassian, notre organisation recherche un adminstrateur Jira externe experte Atlassian pour renforcer son dispositif existant. La mission s’inscrit dans un environnement structuré, avec : Une instance Jira Cloud d’environ 2 000 utilisateurs (contexte de migration depuis Jira Server en cours), Une instance Confluence On-Premise d’environ 2 000 utilisateurs, Des enjeux forts de qualité de service, stabilité, gouvernance, conformité et sécurité, Un responsable de projet déjà en place, avec lequel le prestataire travaillera en étroite collaboration et sous sa responsabilité. La prestation couvre à la fois : l’administration avancée des outils Atlassian, le conseil et l’accompagnement des équipes dans leurs usages Jira, la contribution à la structuration et à l’harmonisation de la plateforme Jira Cloud post-migration. __________ Missions principales Administration et qualité de service Atlassian Administrer et maintenir les environnements Jira Cloud et Confluence On-Premise. Développements spécifiques avec API Jira Garantir un haut niveau de qualité de service, incluant : actes d’administration, actes de gestion courante : réaliser les demandes de changements demandé par les équipes projets ( workflow, champs personnalisés, nouveau projet,… ) gestion et suivi des incidents, prise en compte des recommandations d’audit, mise en œuvre des évolutions fonctionnelles et techniques. Force de proposition sur l’amélioration de la GC (automatiser les demande récurrentes, …) Assurer la stabilité, la cohérence et la performance des plateformes. Traiter les demandes entrantes d’administration Jira dans des délais adaptés. Garantir la traçabilité et la documentation de 100 % des interventions. Identifier et alerter sur les situations hors cadre ou à risque (techniques, sécurité, conformité). Migration Jira Server → Jira Cloud Participer à la migration Jira Server vers Jira Cloud, dans le respect : du cadrage existant, des standards et normes de l’entreprise, des exigences de sécurité et de conformité. Contribuer à l’analyse des écarts, à la préparation des données et aux validations post-migration. Accompagner les équipes dans l’appropriation des usages Cloud et des impacts associés. Harmonisation et réorganisation post-migration Participer activement à la réorganisation et à l’harmonisation de la plateforme Jira Cloud après migration : rationalisation des projets, harmonisation des schémas, workflows, permissions et usages, amélioration de la lisibilité et de la gouvernance globale de l’instance. Être force de proposition sur les évolutions structurantes et les bonnes pratiques à déployer à l’échelle de la plateforme. Conseil, accompagnement et formation Analyser les besoins des demandeurs (MOA, métiers, équipes projets). Traduire ces besoins en solutions Jira adaptées et pragmatiques. Accompagner les équipes dans la mise en œuvre de leurs projets Jira. Réaliser ou contribuer à des actions de formation, d’accompagnement et d’évangélisation autour de Jira. Adopter une posture de conseil, orientée valeur et usages. Gouvernance, conformité et sécurité Finaliser et maintenir les livrables réglementaires dans le respect des exigences de l’entreprise (sécurité, conformité, …) Participer aux revues de conformité et aux audits. Produire un bilan trimestriel de conformité synthétique. Reporting et coordination Produire un reporting mensuel structuré de son activité Travailler en coordination étroite avec le responsable de projet en charge du périmètre Atlassian. Mobiliser les parties prenantes si nécessaire, avec une posture de chef de projet ponctuelle, sans responsabilité hiérarchique. __________ Compétences attendues
Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance

Mission freelance
Expert Data Quality - Azure & IA

STHREE SAS
Publiée le

6 mois
75001, Paris, Île-de-France
🚀 Expert Data Quality / Architecte Data - Azure & IA 📍 Paris | 💼 Mission longue | 🌍 FR / EN 🎯 Contexte Nous recherchons un expert Data Quality senior pour intervenir sur une plateforme data Azure à fort enjeu métier (finance / asset management) . L'objectif : structurer, automatiser et industrialiser la qualité des données , tout en exploitant les nouvelles capacités de l'IA . 🧩 Votre mission Vous interviendrez comme référent Data Quality / Architecte , avec une vision bout‑en‑bout : 🔍 Auditer l'existant et définir une stratégie Data Quality cible ✅ Concevoir et déployer des règles de qualité (complétude, cohérence, unicité, fraîcheur…) ⚙️ Automatiser les contrôles, rejets fonctionnels, alertes et workflows 📊 Mettre en place le monitoring, le reporting et les KPI de qualité 🤖 Intégrer l' IA pour : générer des règles de qualité détecter anomalies et dépassements de seuil faciliter les contrôles en langage naturel 🧑‍🤝‍🧑 Travailler avec les équipes IT et métiers et assurer le transfert de compétences 🛠️ Environnement technique Microsoft Azure Data Platform (Data Lake, Data Factory, Synapse, Purview) PySpark / SQL Power BI (exposition des KPI qualité) Data Governance & Data Quality frameworks 👤 Profil recherché 🎓 Bac+5 (école d'ingénieur ou équivalent) 🧠 7 à 12 ans d'expérience en qualité des données / data management 🏦 Expérience en finance / banque / asset management appréciée 🏗️ Profil Lead / Architecte , autonome et structurant 🌍 Français et anglais professionnels 🌟 Pourquoi cette mission ? Enjeux data critiques et visibles au plus haut niveau Plateforme Azure moderne Forte ambition autour de l'IA appliquée à la Data Rôle clé avec impact stratégique 📩 Intéressé(e) ? Envoyez‑nous votre profil ou échangeons rapidement.
Freelance

Mission freelance
Expert Sécurité (F/H)

CELAD
Publiée le
Sécurité informatique

12 mois
600-650 €
Paris, France
Nous poursuivons notre développement et recherchons actuellement un.e expert.e pour intervenir chez un de nos clients dans le secteur bancaire. 💻💼 Contexte : Dans un environnement marqué par la sécurisation des données et la gestion des achats de solutions SaaS, nous recherchons un expert capable de fluidifier les échanges entre les équipes métiers et les architectes, afin de garantir la validation efficace des projets en instances de décision. Expertises spécifiques : - Solide maîtrise des enjeux de sécurité informatique et des exigences associées - Bonne connaissance du processus de validation CDAS - Expérience en chefferie de projet, idéalement dans un environnement transverse (RH ou multi-équipes) - Bonne compréhension des sujets d’intégration et d’architecture (API, Gateway, etc.)
Freelance

Mission freelance
QA Senior/Expert

Cherry Pick
Publiée le
JIRA
SQL
UFT One

12 mois
400-440 €
Paris, France
Dans le cadre des tests de nos applications de gestion commerciale, le candidat sera ammené à travailler sur les évolutions du Legacy et de sa refonte. Le candidat doit être force de proposition et surtout être impliqué fortement. La refonte de nos applications engendrer une période de stress que le candidat devra supporter avec dynamisme. Enfin nous recherchons un profil pour une longue mission mais curieux, sérieux, ouvert sur les nouvelles technologies avec un bon esprit d'équipe. ORGANISATION ET CONCEPTION DES TESTS Contribue à l'élaboration de la stratégie de tests avec le Test Lead, en lien avec les Chefs de Projets et/ou Responsables d'applications Analyse les exigences utilisateurs et les spécifications fonctionnelles ou techniques fournies par le Responsable d'application Estime les charges DÉROULEMENT ET REALISATION DES TESTS En fonction de la stratégie établie, rédige les plans de tests, identifie les prérequis et spécifie les jeux de données (données de tests, résultats attendus) qu'il fait valider par le CP et/ou Responsable d'Application Réceptionne son environnement de tests et s'assure de sa conformité en termes de versions applicatives Exécute les tests manuellement ou en utilisant des outils d'exécution automatique des tests Consigne les résultats de tests et remonte les anomalies au Chef de Projet et/ou Responsable d'application Met à jour le référentiel de tests Peut coordonner une équipe d'analystes de test en tant que référent SYNTHESE DES TESTS Réalise un bilan des tests effectués Profil : Compétences techniques JIRA - Confirmé - Important SQL server - Confirmé - Important Retail - Junior - Souhaitable UFT - Junior - Appréciable Certification ISTQB, certification SAFe est un gros plus.
Freelance
CDI

Offre d'emploi
Expert Data Engineering / DevOps AWS sur Plaisir

EterniTech
Publiée le
AWS Glue
DevSecOps
ETL (Extract-transform-load)

3 mois
Plaisir, Île-de-France
Je cherche pour un de mes client un Expert Data Engineering / DevOps AWS sur Plaisir Démarrage souhaité : ASAP Localisation : Plaisir Rythme : 3 jours sur site / semaine, 2 jours en télétravail Expérience requise : minimum 10 ans Langues : Français : échanges DSI / métiers Anglais : documentation et communication avec les filiales Contexte de la mission Dans le cadre de la mise en place de la dataplateforme SAO , un grand groupe industriel du secteur aéronautique recherche un expert Data Engineering / DevOps AWS capable de : Finaliser un premier use case d’ingestion de données ERP vers la dataplateforme. Industrialiser l’ingestion d’environ 120 tables. Automatiser les flux entre les couches Raw Data et Standardized . Accompagner la montée en compétence des équipes internes juniors. Documenter les travaux réalisés et sécuriser l’exploitabilité de la solution Attendus de la mission : Le profil devra intervenir sur la conception, l’industrialisation et l’accompagnement des équipes . 1. Volet Data Engineering AWS Analyse des besoins métiers autour des produits data Contribution aux spécifications fonctionnelles et techniques Conception d’architectures data adaptées à AWS Mise en place de pipelines d’ingestion robustes et automatisés Ingestion de données structurées, semi-structurées et non structurées Industrialisation des flux ERP / datalake vers la dataplateforme Automatisation du passage Raw Data → Standardized Production ou validation des data products Mise en place des bonnes pratiques de sécurité, scalabilité et conformité 2. Volet DevOps / industrialisation Mise en place ou optimisation des processus CI/CD Gestion des environnements DEV / PREPROD / PROD Déploiements non régressifs de data products Versioning du code, des schémas et de la data Supervision technique des traitements Pilotage des tests techniques, métiers, performance et sécurité Assistance au démarrage et suivi post-mise en production 3. Volet documentation / transfert de compétences Rédaction de la documentation projet, technique et utilisateur Rédaction des modes opératoires et cahiers de recette Transfert de compétences auprès des équipes internes Accompagnement des équipes juniors Digit SAO et Data Engineering Reporting hebdomadaire et remontée des risques / points d’avancement
CDI

Offre d'emploi
Architecte Active Directory - Expert (H/F)

AGH CONSULTING
Publiée le
Active Directory
Azure Active Directory (AD) Connect
Databricks

58k-70k €
Montrouge, Île-de-France
Tâches à réaliser : Intégrer et faire évoluer la partie Active Directory on-premise et cloud (Azure AD) Récupérer et exploiter les données d'Active Directory via PowerShell, scripts, et outils d'automatisation Scanner et analyser différents composants Azure AD pour assurer une cohérence et une sécurité optimale Développer et maintenir des scripts PowerShell pour la gestion d'AD Moderniser et réintégrer du code existant, en utilisant des techniques modernes (PowerShell avancé) Automatiser la récupération, le traitement et l'intégration des données dans la plateforme Récupérer les outputs générés par DataBricks ou autres outils, et les intégrer dans la plateforme interne Assurer la cohérence et la mise à jour des données, notamment via des scripts et automatisations Participer à la génération de rapports (ex : Power BI) à partir des fichiers et données intégrés Transférer, maîtriser et faire évoluer l'architecture AD Résoudre des problématiques complexes (droit, arborescence, tokens) Assurer la sécurité, la conformité et la performance de l'Active Directory
Freelance
CDI

Offre d'emploi
Expert Data Engineer / DevOps

R&S TELECOM
Publiée le
Apache Kafka
Java
Kubernetes

6 mois
40k-45k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d’un programme structurant de modernisation du système d’information , nous recherchons un profil Data Engineer / DevOps senior pour renforcer une équipe existante. La mission s’inscrit au cœur du SI cible , au service de plusieurs applications critiques orientées data, intégration et services temps réel. Le poste vise à industrialiser les chaînes DevOps et à structurer les flux Data Lake dans un environnement cloud native, fortement automatisé et orienté open source . Démarrage souhaité : mai / juin Localisation : Rive gauche bordeaux, nécessite un véhicule Objectifs de la mission Le rôle est double : DevOps / Plateforme Industrialisation et sécurisation des chaînes d’intégration et de déploiement Standardisation des pratiques GitOps sur un socle Kubernetes multi‑environnements Renforcement de l’automatisation et de l’observabilité des plateformes applicatives et data Data / Streaming Accompagnement à la conception et à la standardisation des flux data temps réel Structuration d’un Data Lake orienté streaming et lakehouse Garantie de la performance, de la résilience et de la maintenabilité des flux Domaines d’intervention & compétences clés Socle Kubernetes & DevOps Orchestration : Kubernetes (Namespaces, Ingress, RBAC) GitOps : GitLab CI, Helm, ArgoCD Observabilité : Grafana, Prometheus, Loki, Tempo Sécurité CI/CD : SAST, DAST, Trivy Environnements : OpenStack Écosystème Data & Data Lake Streaming & CDC : Kafka, Debezium Processing : Spark SQL, Airflow Lakehouse : Apache Iceberg Query Engine : Trino (PrestoSQL) Stockage objet : Ceph (ou équivalent) Micro‑services & APIs Runtimes : Java / Quarkus, Python API Management : Kong Protocoles : MQTT (atout) Optimisation des performances applicatives et data Livrables attendus (exemples) Socle & automatisation Mise en place d’architectures ArgoCD (Application of Applications) Catalogue de Charts Helm industrialisés Bibliothèque de pipelines GitLab CI/CD standardisés et sécurisés Data & Streaming Provisionnement automatisé des clusters Kafka et connecteurs Debezium Configuration optimisée de Trino sur stockage objet Mise en place des DAGs Airflow pour l’orchestration des traitements Documentation & MCO Dashboards de supervision avancés Rédaction du Dossier d’Architecture Technique (DAT) Rédaction de Runbooks MCO / PRA Définition de standards techniques et bonnes pratiques cloud native Profil recherché Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer Très bonne maîtrise de Kubernetes et des pratiques GitOps Expérience concrète sur des plateformes Kafka et Data Lake À l’aise dans des contextes SI complexes et structurants Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet Autonomie, rigueur, sens de l’industrialisation
Freelance

Mission freelance
SAP - Expert Basis (H/F)

Mindquest
Publiée le

6 mois
Courbevoie, Île-de-France
1- Expertise SAP BASIS / BC : * Agir en tant qu’expert SAP S/4HANA BASIS (BC) * Installer, configurer et maintenir les systèmes SAP S/4HANA (DEV, QAS, PRD) * Gérer les paysages système et les routes de transport * Réaliser des opérations techniques, notamment : - Mises à jour du kernel - Mises à jour SPS et correctifs - Application des SAP Notes * Administrer et surveiller les bases de données SAP HANA * Garantir la performance, la stabilité et la disponibilité des systèmes 2- Support projet & programme : * Travailler en intégration avec l’équipe projet (fonctionnels, développement, gestion de programme). * Participer à : - Les ateliers de conception technique - Les évaluations de risques et d’impacts - La préparation et la validation technique du go-live - Soutenir la préparation et l’exécution de la bascule. - Assurer un support hypercare post-go-live. 3- Coordination & support opérationnel : * Coordonner avec : - Les équipes IT internes de Saint-Gobain - Les fournisseurs d’infrastructure et d’hébergement - Les partenaires et intégrateurs SAP * Traiter les sujets techniques liés à : - Les interfaces et la connectivité RFC - La gestion des jobs et traitements batch - La supervision et les alertes * Contribuer à la documentation technique et aux procédures opérationnelles.
Offre premium
Freelance
CDI

Offre d'emploi
Expert Datadog/kubernetes/ AWS/ OBSERVABILITE

Sapiens Group
Publiée le
AWS Cloud
Datadog
Kubernetes

1 an
Paris, France
Mission : Accompagner l’équipe dans la mise en place de Datadog et des pratiques DevOps, automatiser les processus et maintenir l’infrastructure cloud Responsabilités principales : Déploiement CI/CD sur serveurs Windows, containers ECS et clusters EKS Maintenance et amélioration des plateformes de production Développement et optimisation de modules Terraform/Terragrunt Création de Lambdas pour administration et automatisation Mise en place d’ArgoCD et accompagnement des développeurs sur l’observabilité Coordination de comptes AWS et Landing Zones PoC Talos sur environnement on-prem Proxmox Profil : Expérience solide en DevOps, cloud et IaC Autonome, rigoureux et orienté optimisation Capacité à travailler avec les équipes de développement et à vulgariser les concepts DevOps Environnement technique : DATADOG / KUBERNETES / AWS (EKS, Lambda, Landing Zones), Azure DevOps, AKS, Terraform, Terragrunt, Helm, Docker, ArgoCD, Python, Bash, Linux/Windows, Git/GitHub/GitLab, Datadog, Trivy, Falco, SonarQube, Talos (PoC).
Freelance

Mission freelance
Expert Looker BI-BIGDATA / Paris

Signe +
Publiée le
BigQuery
Looker Studio
SQL

6 mois
550-670 €
Paris, France
Bonjour, Nous recherchons pour l'un de nos clients un profil BI-BIGDATA - Support - Expert Looker. Mission : La mission consiste à accompagner les POCs de l’étude Looker (développement et accompagnement du métier dans le développement de leur POCs et formations) et apporter une expertise dans le fonctionnement de l’outil (conseil en architecture, sécurité, FinOPS) En tant qu’expert de la Data & AI Technology Platform, le profil recherché doit avoir une excellente maitrise de l’outil Looker Core (Looker Studio ne faisant pas partie du scope de l’étude) mais aussi avoir un excellent relationnel et être pédagogue car il doit être en contact avec les développeurs les utilisateurs métiers, mais aussi avec différents services au niveau IT ( Ops Architectes …). L’étude de Looker comme potentiel outil de Dataviz du groupe AF KLM est prévue de Mai 2026 – Octobre 2026. L’objectif est d’évaluer le potentiel de l’outil à répondre aux enjeux tels que les besoins métiers sur l’autonomie pour les analyses adhoc, les demandes croissantes sur l’IA (conversational analytics), le remplacement des outils comme SAP BO ou Spotfire… dans le contexte du projet Data Move To Cloud. La maitrise de Looker Core est indispensable. La maitrise du SQL et GCP – Big Query est aussi importante. La maitrise de Power BI est un plus.
Freelance

Mission freelance
Devops / SRE - Expert Dynatrace (H/F)

Insitoo Freelances
Publiée le
Apache Tomcat
Dynatrace
Kubernetes

2 ans
500-530 €
Montpellier, Occitanie
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Devops / SRE - Expert Dynatrace (H/F) à Montpellier, France. Les missions attendues par le Devops / SRE - Expert Dynatrace (H/F) : Garantir la performance et la fiabilité du SI Client. L’un des enjeux majeurs est d’assurer un niveau de performance optimal des produits du système d’information. Grâce à une surveillance proactive via Dynatrace, la mission vise à détecter précocement les dégradations (temps de réponse, erreurs, instabilités techniques) afin d’éviter qu’elles n’affectent les usagers ou les processus métiers. Prévenir les incidents et limiter les impacts opérationnels La détection anticipée des signaux faibles (fuites mémoire, redémarrages de pods, volumes d’erreurs) permet d’éviter l’apparition d’incidents majeurs. La qualité et la réactivité dans l’ouverture d’incidents ITSM contribuent à : • réduire les interruptions de service, • limiter les risques de saturation ou de panne, • améliorer la disponibilité globale des solutions. Améliorer la maîtrise du RUN par les équipes produit Montée en compétence des équipes produit. En leur expliquant les mécanismes de détection et les analyses effectuées, elle permet : • d’accroître leur autonomie sur le pilotage du RUN, • de renforcer leur capacité à agir rapidement, • de diffuser une culture de la performance et de la supervision. Contribuer à une vision transverse de la santé du SI Développer une lecture globale des tendances observées sur l’ensemble des produits et composants afin • d’identifier des problématiques transverses, • de détecter des points de fragilité systémiques, • de proposer des axes d’amélioration structurants pour l’ensemble du SI. Participer à l’amélioration continue des pratiques de supervision • affiner les seuils d’alerting, • optimiser les tableaux de bord et les dashboards Dynatrace, • renforcer le dispositif de supervision et d’observabilité. Sécuriser la qualité de service rendue aux utilisateurs finaux - permettre aux utilisateurs internes et externes de bénéficier d’un service fluide, fiable et performant. Compétences • K8S, TAS, VM • Weblogic, Tomcat, Quarkus, Springboot, nginx, Apache • Dynatrace : Utilisation de l'outil pour troubleshooting, détection de signaux faibles, analyse de performance
Freelance

Mission freelance
Expert Dynatrace SaaS / AWS – Observability & Performance

WIKEYS
Publiée le
AWS Cloud
DevOps
Dynatrace

10 mois
400-550 €
Paris, France
Dans le cadre du renforcement de nos capacités en observabilité et monitoring avancé , nous recherchons un Expert Dynatrace capable d’intervenir sur des environnements cloud AWS en mode SaaS . Vous jouerez un rôle clé dans l’optimisation de la performance applicative, la supervision proactive et l’amélioration continue des systèmes. Responsabilités principales Déployer, configurer et administrer Dynatrace (mode SaaS) Mettre en place des stratégies avancées d’ observability (APM, logs, metrics, traces) Assurer le monitoring de systèmes distribués en environnement AWS (microservices, containers, Kubernetes) Analyser les performances applicatives et identifier les bottlenecks Implémenter des dashboards, alerting intelligent et automatisation Collaborer avec les équipes DevOps, Cloud et développement Participer à l’amélioration continue (SRE, performance engineering) Accompagner les équipes sur les bonnes pratiques (coaching / expertise)
Freelance
CDI

Offre d'emploi
Expert M365 / Power Platform / Copilot

VISIAN
Publiée le
Microsoft Copilot Studio
Copilot
Microsoft Power BI

1 an
Paris, France
Missions Mettre en place et opérer un CoE Power Platform & Copilot couvrant la gouvernance, l’architecture, l’accompagnement des entités et la montée en maturité des usages (Power Apps, Power Automate, Power BI, Copilot Studio, M365 Copilot). Gouvernance et cadre de référence Définir et maintenir le modèle de gouvernance Power Platform & Copilot (environnements, sécurité, DLP, cycle de vie, bonnes pratiques). Contribuer aux standards Groupe et assurer l’alignement avec les exigences sécurité, conformité et IT. Structurer le CoE (rôles, processus, outillage, reporting). Expertise technique et architecture Apporter une expertise avancée sur Power Apps, Power Automate, Power BI, Copilot Studio et M365 Copilot. Concevoir des architectures de solutions robustes et réutilisables, adaptées aux contextes métiers variés. Accompagner les cas d’usage avancés (agents Copilot, automatisations complexes, intégrations M365). Accompagnement des entités du Groupe Soutenir les entités dans la conception, le développement et l’industrialisation de solutions Power Platform & Copilot. Jouer un rôle de coach et d’accélérateur auprès des équipes locales (makers, IT, métiers). Aider à la priorisation des cas d’usage à forte valeur. Adoption et montée en compétences Contribuer aux programmes de formation, guidelines et supports pour développeurs et utilisateurs. Diffuser les bonnes pratiques et favoriser une adoption responsable et maîtrisée de l’IA et du low-code. Veille et innovation Assurer une veille technologique sur les évolutions Microsoft Copilot et Power Platform. Identifier et promouvoir les nouveaux usages à valeur ajoutée pour le Groupe.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Les questions fréquentes à propos de l’activité d’un Expert·e protection des données (RGPD, DPO)

Quel est le rôle d'un Expert·e protection des données (RGPD, DPO)

L’Expert·e Protection des Données, souvent désigné·e comme DPO (Data Protection Officer), garantit la conformité d’une organisation avec les réglementations en matière de protection des données personnelles, comme le RGPD. Son rôle inclut l’accompagnement juridique et technique, la sensibilisation des équipes, et la gestion des risques liés aux données.

Quels sont les tarifs d'un Expert·e protection des données (RGPD, DPO)

Le tarif varie selon l’expérience, la taille de l’organisation et la complexité des missions. En entreprise, les salaires annuels se situent généralement entre 50 000 et 90 000 euros. En freelance ou en consulting, les tarifs journaliers oscillent entre 600 et 1 200 euros en fonction des besoins spécifiques.

Quelle est la définition d'un Expert·e protection des données (RGPD, DPO)

Un.e Expert·e Protection des Données est un.e professionnel·le chargé·e de veiller à ce que l’utilisation des données personnelles dans une organisation respecte les normes légales, notamment celles du RGPD. Il ou elle joue un rôle clé dans la mise en place de politiques de protection des données et la gestion des éventuels incidents de sécurité.

Quel type de mission peut gérer un Expert·e protection des données (RGPD, DPO)

Les missions incluent la réalisation d’audits de conformité, l’élaboration de politiques et procédures de gestion des données, la sensibilisation et la formation des collaborateurs, la gestion des demandes liées aux droits des individus (droit à l’oubli, portabilité, etc.), et la réponse aux incidents de sécurité tels que les violations de données. Il ou elle peut également être impliqué·e dans la négociation de contrats avec des sous-traitants pour garantir leur conformité.

Quelles sont les compétences principales d'un Expert·e protection des données (RGPD, DPO)

Les compétences clés incluent une excellente connaissance des réglementations en vigueur (RGPD, ePrivacy), des compétences juridiques, une expertise en gestion des risques, et une maîtrise des outils techniques liés à la sécurité des données. Une capacité à vulgariser des concepts complexes et à collaborer avec différents départements est également essentielle.

Quel est le profil idéal pour un Expert·e protection des données (RGPD, DPO)

Le profil idéal allie des compétences juridiques et techniques avec une expérience en gestion des données ou en cybersécurité. Il ou elle doit être rigoureux·se, diplomate, et capable de gérer des problématiques transversales. Une formation en droit, informatique ou gestion des risques, complétée par des certifications comme le CIPP/E ou DPO certifié CNIL, est souvent recherchée. La capacité à travailler sous pression et à anticiper les évolutions réglementaires est également un atout clé.
1138 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous