Trouvez votre prochaine mission ou futur job IT.
Mission freelance
Data Privacy COE Expert
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme,Expert Spécialités technologiques : RGPD,Reporting,Gestion de projet Type de facturation : Assistance Technique (Facturation avec un taux journalier) Compétences : Méthodes / Normes Adapter Soft skills Rigueur Adaptation Langues Français Anglais MISSIONS Contexte de la mission La mission s’inscrit dans un contexte de renforcement de la conformité réglementaire en matière de protection des données personnelles au sein d’un environnement international complexe. L’objectif est d’assurer l’adaptation, la mise en œuvre et le suivi des politiques de Data Privacy conformément aux législations applicables (RGPD, lois locales et standards internes). Le consultant interviendra en coordination étroite avec les équipes juridiques, IT et de gouvernance afin de garantir la conformité, la sécurité et la cohérence des pratiques de traitement des données à caractère personnel. Le consultant aura pour mission principale de développer, adapter et piloter les politiques de confidentialité et de protection des données, ainsi que d’assurer un rôle d’expertise et de conseil transverse. Principales responsabilités : - Développement et adaptation des politiques internes de confidentialité conformément aux lois et règlements applicables ; - Élaboration et mise à jour des formulaires de consentement, autorisations, notices d’information et supports de communication liés à la protection des données ; - Mise en œuvre et suivi des exigences détaillées nécessaires pour assurer une gestion conforme des traitements spécifiques ; - Formation et accompagnement des équipes métiers sur les enjeux de conformité et de protection des données personnelles ; - Gestion et contrôle du registre de traitement des données (Data Protection Register) ; - Support et validation des projets nécessitant une évaluation d’impact relative à la vie privée (DPIA) et émission d’avis de conformité ; - Interface avec les équipes dédiées à la gestion des demandes d’accès, incidents et violations de données personnelles ; - Rédaction et revue d’accords de confidentialité, d’évaluations d’impact, de clauses contractuelles et de notes de position ; - Analyse et supervision des activités métiers et de la conformité des contrats fournisseurs ; - Participation aux comités de gouvernance liés à la protection des données ; - Suivi permanent de la conformité et reporting vers les instances de gouvernance internes. Expertise souhaitée - Expérience préalable en Data Privacy / Compliance (profil juridique ou IT sécurité) ; - Solide compréhension des cadres réglementaires : RGPD, directives européennes, bonnes pratiques de conformité ; - Maîtrise de la gestion du risque lié à la donnée (registre, DPIA, reporting, audit) ; - Capacité à analyser les traitements et à recommander des actions correctives.
Mission freelance
[LFR] Expertise BigData / Cloud Data Engineering, Senior à Guyancourt - 1005
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site SQY au minimum Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation
Offre d'emploi
Lead data (H/F)
Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github
Mission freelance
Architecte / Expert MongoDB Atlas sur Azure
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
Mission freelance
Data Ingénieur Cloudera
Pour le besoin de mon client, je suis à la recherche d'un profil Data Engineer confirmé Tâches Piloter les projets DevOps complexes : planification, suivi des délais, budget et livrables. Coordonner les équipes (techniques, métiers, sécurité) et animer les comités de suivi. Superviser les évolutions systèmes et infrastructures liées au DevOps. Intégrer la cybersécurité dans les projets et veiller au respect des bonnes pratiques. SQL (notamment HIVE) HADOOP (développement sur Cloudera Data Platform) Shell UNIX JAVA/Spark Git
Mission freelance
Data Scientist Python (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Scientist Python (H/F) à Lyon, France. Contexte : Concevoir et réaliser des audits de performance d’exploitation et proposer un programme d’amélioration continue Développer des processus d’analyse automatique des performances Développer des outils de maintenance préventive pour les équipements Anticiper l’impact des évolutions des systèmes et de leur environnement Equipe en charge de l'amélioration continue et de la valorisations des données afin d'améliorer leurs exploitations. Date de début souhaitée : 01/01/2026 Les missions attendues par le Data Scientist Python (H/F) : Activité principale - Analyser le fonctionnement - Modéliser le comportement nominal - Construire des outils d'autodiagnostique - Revue de code / Evaluation des orientations techniques - Maintien des utilitaires internes Activité secondaire - Industrialiser les prototypes - Veille technologique sur les outils utilisés au sein du projet Stack technique de l'équipe Python 3 / Python Dash PySpark SQL / Postgresql Tableau software / PowerBI
Mission freelance
Data Engineer / Data Viz - Java / Spark
Profil du candidat Contexte Pour un acteur majeur du transport aérien, nous recherchons un Data Engineer. Contexte de migration vers GCP. Compétences techniques : Grande connaissance GCP BigQuery and Java/Spark Appétence pour les environnements industriels /logistique ou du transport. Excellente rigueur, esprit d’analyse et sens de l’organisation. Aisance relationnelle, esprit d’équipe et proactivité. Minimum 5 ans d'expérience Compétences transverses : Niveau d’anglais niveau C1 ou C2 obligatoire. Autonomie Très bon relationnel Force de proposition Localisé en Ile de France, télétravail partiel autorisé, présentiel 3 jours par semaine.
Mission freelance
Data Analyst
Compétences techniques indispensables : Maîtrise de SQL et Dataiku (indispensable). Bonne connaissance des environnements Big Data (type Data Lake, Hive, Impala, Spark…). Maitrise des bases du web marketing Connaissance des outils de dataviz : Digdash, Qlik Sense, Power BI, etc. Maîtrise de Piano Analytics ou d’un outil équivalent de web analytics est un plus. Compréhension des enjeux liés à la qualité, à la structuration et à la gouvernance de la donnée. Compétences fonctionnelles : Capacité à analyser, synthétiser et vulgariser des résultats complexes. Sens de la rigueur, de l’autonomie et de la curiosité. Excellentes aptitudes à travailler en équipe et à interagir avec des interlocuteurs variés (techniques et métiers).
Offre d'emploi
Data Protection Officer - DPO
Notre entreprise Axians Outsourcing IDF Industrie , basée à La Plaine Saint-Denis ( 93 ), propose à ses clients issus de divers secteurs d'activité, une infogérance globale sur les services ICT sur de larges périmètres techniques. Nous sommes aujourd’hui près de 62 collaborateurs dont la majeure partie travaille au quotidien chez nos clients. Dans le cadre du renforcement de ses équipes, nous recrutons un.e Data Protection Officer pour accompagner le développement des activités auprès de notre client en Île-de-France. Le poste est basé à Montfermeil VOS MISSIONS : 1. Conformité RGPD Cartographier les traitements de données personnelles. Tenir et mettre à jour le registre des traitements. Réaliser des analyses d’impact (PIA). Identifier les risques liés aux traitements informatiques. 2. Conseil et accompagnement Informer et conseiller les équipes IT, métiers et direction sur les obligations légales. Participer aux projets informatiques dès leur conception (privacy by design/by default). 3. Contrôle et audit Mettre en place des procédures de contrôle interne. Réaliser des audits de conformité sur les systèmes d’information. Suivre les incidents liés à la sécurité des données. 4. Formation et sensibilisation Organiser des sessions de formation pour les collaborateurs. Diffuser les bonnes pratiques en matière de protection des données. 5. Interface avec la CNIL Être le point de contact officiel en cas de contrôle ou de notification de violation. Gérer les demandes d’exercice des droits des personnes concernées.
Offre d'emploi
Data Engineer Flux H/F
Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises bancaires. Dans ce cadre, nous recherchons notre Data Engineer qui contribuera à un programme important d'évolution de la plateforme Data. Vos missions et responsabilités : - Analyser les besoins métiers et les traduire en solutions BI pertinentes et durables ; - Modéliser les données en cohérence avec les objectifs fonctionnels et les bonnes pratiques décisionnelles ; - Créer et maintenir les flux de données via des outils ETL, en assurant leur qualité, robustesse et performance ; - Participer à la recette et au suivi de production des chaînes décisionnelles, en lien étroit avec les utilisateurs ; - Assurer un rôle transverse sur les projets décisionnels : échange avec les MOA, rédaction de spécifications fonctionnelles, accompagnement des utilisateurs.
Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Offre d'emploi
Cybersécurité gouvernance / Cybersecurity Officer
Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre du Group Data CISO vis à vis de l'évolution de la stratégie relative à la sécurité de la DATA en étant l'interlocuteur privilégié des différentes fonctions ayant des responsabilités vis à vis de Data. Il est un élément clé dans la préparation et l'organisation des "Group Data Steering Committee" Missions principales Interaction avec l'ensemble des parties prenantes pour définir les priorités en termes d'exigences cyber autour de la Data
Offre d'emploi
Data QA Engineer H/F
Missions : • Élaborer la stratégie de test de l’équipe Data et définir la bonne approche qualité en collaboration avec le Product Owner, le Scrum Master et les membres de l’équipe. • Concevoir, piloter et exécuter des tests de bout en bout (E2E), avec un focus particulier sur les produits data dans les environnements Azure Data Stack et Databricks. • Travailler en étroite collaboration avec les Product Owners pour définir et affiner les scénarios de test, en se concentrant sur les exigences fonctionnelles et la qualité des données. • Garantir la fiabilité et la valeur des produits data livrés en appliquant des scénarios de test rigoureux. • Adapter et appliquer le cadre méthodologique QA aux spécificités d’un environnement Data. • Collaborer avec l’équipe Quality Assurance Automation (QAA) pour automatiser les tests critiques, notamment ceux liés à l’ingestion et à la transformation des données. • Participer à la conduite du changement auprès des équipes data pour favoriser l’adoption des bonnes pratiques QA. • Contribuer à la gestion de projet qualité, notamment sur la planification des tests, la priorisation des anomalies et le reporting.
Offre d'emploi
Data engineer (H/F)
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Offre d'emploi
Data Designer / Data Engineer
Mission Freelance – Data Designer / Data Engineer Client: secteur minéraux Localisation : Paris, Aix-en-Provence, Strasbourg ou Lyon Télétravail : 1 à 2 jours par semaine Durée : 6 mois minimum Démarrage : ASAP Contexte de la mission Dans le cadre d’un vaste programme de modernisation de la donnée pour un acteur international du secteur des minéraux, vous intégrerez une équipe d’une dizaine de collaborateurs mobilisés sur le déploiement d’une Data Factory structurée autour de trois volets : Program Management : pilotage global et coordination. Tech Enablers : mise en place des briques techniques de la plateforme. Data Use Cases : livraison de cas d’usage métiers concrets. Les objectifs à court terme : Livrer 2 à 3 cas d’usage métiers prioritaires . Implémenter une plateforme data moderne basée sur Microsoft Fabric et intégrée à l’écosystème Azure . Structurer une organisation agile , avec des rôles définis, des cérémonies PI Planning et une gouvernance claire. Rôle : Data Designer Vous interviendrez sur la conception et la modélisation des données afin de garantir la cohérence et la pérennité des cas d’usage développés. Vos missions principales : Concevoir les modèles de données (conceptuel, logique et physique) pour les cas d’usage identifiés. Traduire les besoins métiers en structures techniques robustes et évolutives. Collaborer étroitement avec les Data Product Owners et Data Engineers . Documenter les modèles et contribuer à la mise en place du Data Catalogue et du MDM . Participer activement aux rituels agiles et à l’amélioration continue de la Data Factory. Compétences requises : Solides connaissances en modélisation de données (conceptuelle, logique, physique). Bonne compréhension des standards Data Product et des architectures modernes. Expérience confirmée en environnement agile (Scrum / SAFe). Maîtrise des outils et technologies Microsoft Fabric et Azure Data Services . Bonne culture autour du Data Catalogue , MDM et de la gouvernance de la donnée . Anglais professionnel obligatoire (environnement international). 🎓 Profil recherché : Data Designer / Data Engineer confirmé à senior , 3 à 7 ans d’expérience. Capacité à évoluer dans un environnement structuré, international et collaboratif. Esprit analytique, sens du service et autonomie.
Offre d'emploi
Data Engineer Python
Contexte & Objectif de la mission Nous recherchons pour notre client du secteur bancaire un Data Engineer confirmé sur Python. Vous interviendrez en binôme avec le développeur en place sur la conception, le développement et la mise en qualité des flux de migration, tout en garantissant la robustesse et la fiabilité du code déployé. Rôles & Responsabilités Participer aux analyses techniques et au cadrage des besoins de migration/reconsolidation issus des différentes squads. Concevoir et implémenter des solutions data conformes aux bonnes pratiques d’architecture et de développement. Réaliser les développements Python / SQL et les tests associés (unitaires, non-régression). Mettre en œuvre les traitements d’ingestion et de streaming de données (Kafka, SFTP, Dataflow, DBT). Assurer le support technique aux équipes d’homologation et de production. Maintenir les applications du périmètre en condition opérationnelle. Rédiger la documentation technique et assurer un reporting régulier de l’activité. Collaborer activement avec les équipes QA, DevOps et DataOps dans un environnement CI/CD (GitLab, Kubernetes). Environnement technique Python – SQL – Kafka – GCP (BigQuery, Dataflow, Cloud Storage) – DBT – Looker – GitLab – Docker – Kubernetes – Terraform – Helm – Kustomize – Shell – CSV/JSON/XML
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.