L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 329 résultats.
Mission freelance
Data Architect / Engineer Senior – Écosystème IoT & Sport
Publiée le
Architecture
Big Data
3 mois
400-550 €
Lille, Hauts-de-France
ANGLAIS COURANT OBLIGATOIRE Acteur majeur du secteur du sport et de l'innovation depuis plus de 40 ans, nous réinventons constamment le marché grâce à des produits accessibles et technologiques. Notre mission est de rendre les bienfaits du sport accessibles au plus grand nombre via un écosystème numérique complet : coaching virtuel, expériences connectées en magasin, services de location et produits intelligents. Vous rejoindrez une équipe technique de plus de 2 500 experts (ingénieurs, product managers, data experts) répartis entre Paris et Lille, dédiée à répondre aux besoins de 500 millions d'utilisateurs. Contexte de la mission Au sein de la division Connected Sports Platform (CSP) , nous accélérons notre transformation digitale via l'implémentation de solutions IoT. L'équipe Data est au cœur de ces enjeux : elle développe les briques nécessaires à l'ingestion, au stockage et à l'exposition des données échangées entre le cloud, les appareils connectés (vélos électriques, machines de fitness, etc.) et les applications mobiles. Objectifs : Optimiser l'exploitation des données pour la BI, la maintenance prédictive, la détection d'incidents et le design intelligent. Vos responsabilités En tant que Data Architect / Engineer (Freelance) , vous accompagnerez les projets dans leurs choix architecturaux et techniques avec les priorités suivantes : Architecture : Concevoir l'architecture d'ingestion et de stockage des données IoT (directes ou via mobile). Pipeline : Construire des pipelines de données structurées et non structurées scalables. Stratégie Tech : Définir la stratégie des stacks techniques et garantir le CI/CD. Optimisation : Maintenir et refondre les datasets existants pour de nouveaux cas d'usage. Qualité & Gouvernance : Assurer la fiabilité, l'accessibilité et la confidentialité des données (Data Privacy). Standardisation : Définir les standards d'architecture et assurer l'alignement entre la vision technique et les besoins utilisateurs. Profil recherché Expérience : +5 ans en tant que Senior Data Engineer dans un environnement microservices avec échanges de données en temps réel. Expertise Technique : Maîtrise de la modélisation de données, des systèmes distribués et de l'optimisation de requêtes. Stack : Maîtrise de Python (Scala ou Java sont un plus) et des technologies Kafka et Spark . Méthodologie : Culture Agile, GIT, Code Review et Peer Programming. Soft Skills : Excellente capacité de synthèse, communication fluide et esprit d'équipe. Langues : Français courant et anglais professionnel. Le "plus" pour cette mission : Expérience sur l'environnement AWS Big Data (Lambda, Redshift, S3). Expérience confirmée sur des produits IoT ou des appareils connectés. Modalités pratiques Durée : Mission longue durée. Lieu : Paris ou Lille (déplacements ponctuels à prévoir sur Lille si basé à Paris). Télétravail : Rythme hybride (environ 2 jours de télétravail par semaine). Matériel : Choix de l'environnement de travail (Mac, Windows). Compétences clés attendues (Récapitulatif) CompétenceNiveau attenduKafka / Spark Avancé AWS (Lambda, Redshift, S3) Confirmé Data Modeling Confirmé Écosystème IoT Confirmé Data Governance Confirmé
Offre d'emploi
Responsable Activité « Mainframe Cluster CXI
Publiée le
Data management
1 an
Île-de-France, France
Télétravail partiel
Les principales missions s’articuleront autour des axes suivant: • Gouvernance o Gestion du plan de capacité des ressources du périmètre o Gestion des entrées et sorties des prestataires o Production de reportings mensuels consolidés des activités du périmètre o Consolidation des indicateurs au sein de tableaux de bord • Coordination o Suivi de la consommation CPU Batch des traitements applicatifs o Suivi de la volumétrie des unités d’œuvre de facturation des environnements systèmes o Élaboration du planning annuel des opérations mensuelles de redémarrage des partitions, en coordination avec les parties prenantes o Animation du comité mensuel de planification de capacité o Représentation du périmètre dans les différentes instances de gouvernance et de pilotage o Gestion documentaire, partage de la connaissance et lutte contre l’obsolescence documentaire • Supervision et participation aux activités suivantes, en collaboration avec l’équipe : Exploitation applicative (RUN) o Vérification de la bonne exécution du planning et mise en œuvre des actions nécessaires pour assurer la reprise des traitements et le retour au fonctionnement nominal o Qualification, traitement et résolution des incidents, avec mise à jour de la base de connaissance et sollicitation des équipes tierces si nécessaire o Maintien à jour de la documentation, de la CMDB, des consignes de pilotage et des référentiels associés o Traitement et exécution des évolutions et des changements, incluant la gestion des demandes associées
Offre d'emploi
Data engineer - Vannes - 5-10 ans d'éxpérience Vannes (56)
Publiée le
Agile Scrum
Apache
Apache Kafka
1 an
40k-45k €
400-550 €
Vannes, Bretagne
Télétravail partiel
Merci de bien lire l'annonce ci dessous et vérifier que vous correspondez au besoin. Nous recherchons exclusivement des candidats basés à Vannes ou en Bretagne . Merci de ne pas envoyer de candidature si vous êtes situés hors de cette zone géographique. En tant que Data Engineer , votre mission principale sera de produire des solutions techniques robustes et performantes pour exploiter au mieux les données du client. Cependant, votre rôle ne se limitera pas à l’aspect technique : vous serez également un partenaire stratégique des métiers , capable d’identifier leurs besoins, de comprendre leurs enjeux et de proposer des solutions techniques adaptées. Vos responsabilités : Concevoir, développer et maintenir des pipelines de données performants et évolutifs Participer à la définition de l'architecture Data Développer les solutions de collecte et de stockage des données Mettre en place les tests unitaires et automatisés Garantir la qualité, la sécurité et l’intégrité des données tout au long de leur cycle de vie. Implémenter des solutions qui optimisent la gestion des données pour les équipes métier. Collaborer étroitement avec les équipes métier pour comprendre leurs objectifs stratégiques. Faciliter la communication entre les équipes techniques et les non-techniciens Vous serez à la croisée des chemins entre technique et métier , jouant un rôle clé pour transformer les données en un véritable levier de décision. Votre capacité à allier expertise technique et vision stratégique fera de vous un acteur indispensable pour relever les défis de l’entreprise.
Mission freelance
Architecte Data Gouvernance
Publiée le
Architecture
Data governance
Data integrity
12 mois
550-650 €
Île-de-France, France
Télétravail partiel
Le ou la Responsable opérationnel(le) Data Gouvernance joue un rôle central dans l’animation, la mise en œuvre et le pilotage opérationnel de cette gouvernance, en lien étroit avec les métiers, la DSI et les acteurs data. Objectifs de la mission Assurer la mise en œuvre et le pilotage de la gouvernance des données au sein de l’organisation, en garantissant la qualité, la conformité réglementaire et la cohérence des référentiels et des flux de données. Missions principales1. Animation de la gouvernance des données Assurer le rôle de référent(e) opérationnel(le) en matière de gouvernance des données. Planifier, préparer et animer le Comité de Gouvernance Data. Contribuer à la construction, au pilotage et au suivi de la feuille de route Data. Organiser et animer les comités Qualité des Données (QDD) avec les entités concernées. Garantir l’alignement des actions entre les équipes métiers, les équipes IT et les différents rôles data. 2. Gestion des responsabilités et des rôles data Maintenir et faire évoluer la cartographie des responsabilités data (Data Owners, Data Stewards, référents IT). Coordonner les acteurs afin d’assurer la cohérence, la continuité et l’efficacité de la gouvernance des données. Accompagner la montée en maturité des rôles data au sein de l’organisation. 3. Gestion du Catalogue de Données Piloter la mise à jour, l’enrichissement et la validation du Catalogue de Données. Garantir l’accessibilité, la lisibilité et la cohérence des métadonnées. Promouvoir l’usage du catalogue auprès des équipes métiers et IT. 4. Qualité, conformité et audit des données Participer à la validation des tableaux de bord Qualité des Données (QDD). Identifier les écarts entre la modélisation logique et les implémentations physiques. Piloter les audits de conformité des référentiels de données. Contribuer à la définition, au suivi et à la priorisation des plans de remédiation. 5. Contribution à l’architecture d’entreprise Évaluer les impacts data, référentiels et flux lors des phases de cadrage fonctionnel des projets. Contribuer à la définition des architectures fonctionnelles et applicatives en cohérence avec les principes de gouvernance des données. Participer aux travaux de cartographie (domaines de données, objets métiers, dépendances entre systèmes). Modéliser ou contribuer à la modélisation des flux de données (fonctionnels, logiques et applicatifs). Appuyer les décisions d’urbanisation visant à simplifier, rationaliser et pérenniser le système d’information. Compétences requisesCompétences techniques et fonctionnelles Gouvernance des données (prioritaire) Expertise en data governance, data management et qualité des données. Maîtrise des référentiels de données, outils de catalogage, gestion des métadonnées et indicateurs QDD. Bonne connaissance des enjeux réglementaires et de conformité, notamment le RGPD. Architecture d’entreprise (complémentaire) Compréhension des principes d’architecture d’entreprise et d’urbanisation des SI (TOGAF ou équivalent apprécié). Capacité à analyser, challenger et formaliser des architectures fonctionnelles, applicatives et data. Compétences en modélisation des données, des processus métiers et des flux inter-applicatifs. Compétences comportementales Excellentes capacités de communication, avec un sens pédagogique affirmé. Aptitude à fédérer et coordonner des acteurs métiers et techniques aux enjeux variés. Rigueur, organisation, autonomie et sens du travail transverse. Capacité à vulgariser des sujets techniques auprès de publics non experts. Expérience Minimum 5 ans d’expérience en Data Governance, Data Management ou pilotage de projets data. Expérience en architecture fonctionnelle ou urbanisation du SI fortement appréciée. Expérience confirmée dans l’animation de comités et la coordination d’acteurs multiples. Rattachement et interactions Rattachement hiérarchique : SDG – Stratégie Digitale et Gouvernance. Interactions principales : équipes métiers, DSI, Data Stewards, Data Owners, architectes d’entreprise, équipes projets. Profil recherché Nous recherchons un(e) professionnel(le) senior de la data, reconnu(e) pour sa capacité à structurer, piloter et faire vivre une gouvernance des données à l’échelle d’une organisation complexe. Le ou la candidat(e) idéal(e) dispose d’une solide expertise en data governance et data management, complétée par une bonne compréhension des enjeux d’architecture d’entreprise et d’urbanisation du système d’information. Il ou elle sait évoluer dans des environnements transverses, multi-acteurs et réglementés, et jouer un rôle de facilitateur entre les métiers et l’IT. Doté(e) d’un excellent sens relationnel, le ou la Responsable opérationnel(le) Data Gouvernance est capable d’animer des instances de gouvernance, de structurer des décisions collectives et d’accompagner le changement avec pédagogie et pragmatisme. À l’aise aussi bien sur des sujets stratégiques que très opérationnels, il ou elle sait prioriser, structurer et sécuriser les enjeux data à fort impact business. Mots-clés Data Governance Gouvernance des données Data Management Qualité des données (Data Quality, QDD) Catalogue de données Métadonnées Référentiels de données RGPD / Conformité réglementaire Data Owners / Data Stewards Pilotage transverse Animation de comités Architecture d’entreprise Urbanisation du SI Modélisation des données Flux de données Architecture fonctionnelle et applicative Transformation data Environnement complexe Coordination métiers / IT
Offre d'emploi
Data Engineer AWS / Spark / Scala /Python
Publiée le
Apache Spark
PySpark
Scala
1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Mission freelance
Chef de Projet Data & BI (H/F)
Publiée le
BI
Big Data
SQL
1 an
400-580 €
Arcueil, Île-de-France
Télétravail partiel
Si la data et la BI sont pour toi une passion plus qu’une compétence, rejoins notre univers technique qui t’attend de pied ferme avec ce poste de Chef de Projet Data & Expert BI ! 🚀 Ton challenge si tu l’acceptes : Piloter des projets Data / BI de bout en bout, du recueil du besoin métier jusqu’à la mise en production Animer des ateliers avec les métiers (PO / ITBP) et challenger les besoins fonctionnels Concevoir et faire évoluer les architectures Data (on-prem / Azure) Modéliser les entrepôts de données (Data Warehouse / Datamart) Développer et superviser les flux ETL (SSIS), les procédures T-SQL et les modèles SSAS Tabular Créer et optimiser des rapports Power BI (performance, ergonomie, gouvernance) Garantir la qualité, la fiabilité et la performance des données en production
Offre d'emploi
Cloud Data Engineer
Publiée le
Big Data
Cloud
60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Mission freelance
Data Manager / Data Quality Lead H/F
Publiée le
Data governance
6 mois
450-580 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Santé et pharma recherche un/une Data Manager / Data Quality Lead H/F Description de la mission: Contexte & Mission L’entreprise renforce son organisation Data afin de délivrer des produits data fiables et de confiance à l’échelle du Groupe. Au sein de la Data Product Squad , l’entreprise recherche un(e) Data Manager / Data Quality Lead expérimenté(e) pour lancer et structurer le chantier Data Quality , identifié comme un point de douleur majeur et une priorité stratégique . L’objectif principal de cette mission est de construire, piloter et opérationnaliser la Data Quality , en étroite collaboration avec les Business Data Owners et la Data Engineering Squad . Objectifs clés La mission s’articule autour de quatre objectifs principaux : Identifier et structurer les Data Domains , et animer la communauté des Data Owners Définir et piloter la roadmap Data Quality , en priorisant les jeux de données et domaines à corriger en premier Mettre en place le pilotage et les outils de Data Quality , incluant les indicateurs de qualité et le reporting sur le data drift Coordonner les Data Owners et la Data Engineering Squad afin d’assurer des corrections de données efficaces et durables Responsabilités principales Identifier les Data Domains et formaliser les responsabilités (Data Owners, Data Custodians) Animer, fédérer et structurer la communauté des Data Owners Évaluer les problématiques actuelles de qualité des données et leurs impacts métiers Définir, maintenir et prioriser la roadmap Data Quality Définir les règles de Data Quality , KPI et indicateurs Déployer ou paramétrer les outils de Data Quality (monitoring, alertes, reporting, détection de dérive) Reporter l’état de la Data Quality , les risques et l’avancement auprès des parties prenantes Compétences & Expérience requises Expérience confirmée en tant que Data Manager / Data Quality Lead dans des organisations complexes Expérience de travail étroite avec des Data Owners métiers Expérience avec des outils de Data Quality (monitoring, contrôles, métriques, détection de dérive) Excellentes capacités de facilitation , de coordination et de communication Capacité à conduire le changement sans autorité hiérarchique Profil senior requis (autonome, structuré, pragmatique) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
Mission freelance
Consultant RGPD (H/F)
Publiée le
Data management
RGPD
6 mois
400-500 €
Paris, France
Télétravail partiel
Contexte projet / client : Mission de renfort dans le cadre d’un remplacement au sein d’une organisation gérant des projets de conformité et de protection des données, avec un environnement réglementaire exigeant. Missions principales Assurer le suivi et la mise en conformité des processus liés à la gestion et à la protection des données. Participer aux analyses d’impact, évaluations de risques et contrôles internes associés. Contribuer à la rédaction et à la mise à jour de la documentation réglementaire. Collaborer avec les équipes internes pour garantir l’application des bonnes pratiques. Accompagner la continuité des activités pendant la phase de remplacement.
Offre d'emploi
Data Engineer H/F
Publiée le
Big Data
Data Lake
Spark Streaming
Île-de-France, France
Télétravail partiel
Le Data Engineer est un développeur au sein de l’équipe Engineering Open Big Data du Département Data, qui regroupe l’ensemble des expertises technologiques liées à l’ingénierie de la donnée, de l’automatisation et à l’exploitation des modèles de Machine Learning. Ce déparetement est dédié au service de notre client et de ses équipes (Data office, Tribus data, Business, Transformation Office etc.), afin de fournir, en collaboration avec le Data Office, les plateformes (RPA, BI, Data, …) et les données nécessaires aux équipes chargées de délivrer les cas d’usages, puis les déployer et les maintenir en conditions opérationnelles.
Mission freelance
Expert Workday F/H
Publiée le
Big Data
Pilotage
Workday
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 7 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Expert Spécialités technologiques : Data Visualisation, Restitution, Satisfaction client, Sage Protocoles de communication • Projet d’implémentation Workday (ensemble du scope RH, hors payroll) pour la Vague MISSIONS Objectifs : • Sécuriser l’interface Workday – Payroll (Sage) • Supporter l’interface avec notre Active Directory • Pilotage du Build des intégrations qui sera réalisé par le Partner Workday / intégrateur HR Path • Tests • Définition du plan de bascule détaillé en partenariat avec les différentes parties prenantes (IT / Business / Partner, etc.) • Autres activités en lien avec la mise en place d’intégrations avec Workday Expertise souhaitée Profil : • 7 ans d’expérience minimum sur ce poste • Expertise confirmée Workday • Expérience d’intégration avec Workday (Payroll) • Anglophone (ou Germanophone) • Sait collaborer avec plusieurs entités différentes • Sait travailler sous pression (deadline courte) Soft-Skills : • Leadership et esprit d’initiative • Rigueur et sens de l’organisation • Orientation résultats et satisfaction client • Gestion des attentes et des résistances au changement • Capacité à travailler en transversal avec les métiers, la DSI, la sécurité, etc. • Excellente communication écrite et orale
Offre d'emploi
Data Engineer / Data Analyst
Publiée le
BigQuery
CI/CD
Google Cloud Platform (GCP)
2 ans
30k-45k €
400-500 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Mission freelance
Data Governance Officer
Publiée le
Collibra
Data governance
2 ans
400-620 €
Paris, France
Télétravail partiel
Le Data Office recherche un consultant expérimenté pour accompagner le Head Of Data Office dans l’animation et le déploiement de de cette gouvernance, en lien étroit avec les métiers et l’IT. Objectifs de la mission : • Déployer la gouvernance des données en mode fédéré par data domain. • Renforcer la qualité, la traçabilité et la valorisation des données. • Accompagner les métiers dans l’appropriation des rôles et outils de gouvernance. • Piloter les comités et animer la communauté data. Missions détaillées Connaissance des données : • Documenter les données dans l’outil de gouvernance (DataGo) en collaboration avec les métiers et l’IT. • Structurer le glossaire métier, les objets métiers, les attributs et le lignage fonctionnel et technique. Qualité des données : • Formaliser et documenter les exigences de qualité par domaine. • Définir les indicateurs de qualité, les contrôles et les plans de remédiation. • Accompagner les métiers dans la mise en œuvre et le suivi opérationnel. Usages & valorisation Recenser et documenter les cas d’usage métiers. Gérer le portefeuille des cas d’usage et suivre les gains associés. Contribuer à la priorisation des initiatives data. Acculturation & conduite du changement Animer la communauté data (Data Owners, Stewards, Domain Officers). Produire des supports pédagogiques (guides, newsletters, ateliers). Contribuer à la montée en compétence des métiers sur les enjeux data. Pilotage & gouvernance Organiser et animer le comité de gouvernance des données. Préparer les supports du Comité Stratégie Data. Assurer le suivi des décisions, des plans d’action et des indicateurs de maturité.
Offre d'emploi
Expert Cybersécurité Cloud & Gen-IA (Azure / Microsoft)-(H/F)
Publiée le
Azure
DevSecOps
GenAI
1 an
Fontenay-sous-Bois, Île-de-France
Contexte Dans le cadre du déploiement de projets d’ Intelligence Artificielle Générative (Gen-IA) au sein d’un grand groupe bancaire international , la mission vise à renforcer la sécurité des implémentations IA sur les environnements Cloud Microsoft (Azure, Microsoft 365, Copilot). L’enjeu principal est d’accompagner les centres de compétences et les équipes métiers dans la sécurisation des usages Gen-IA, tout en maîtrisant les risques spécifiques liés aux LLM (Large Language Models) dans un contexte agile, cloud et international . Objectif de la mission Assurer la sécurisation de bout en bout des projets Gen-IA déployés sur les environnements Microsoft, en combinant cybersécurité cloud, DevSecOps et expertise IA , et en produisant une documentation sécurité complète et exploitable . Missions principales Accompagner les équipes projets et métiers dans la sécurisation des implémentations Gen-IA . Analyser et maîtriser les risques spécifiques aux LLM : Prompt injection Data leakage Model poisoning Concevoir et formaliser les architectures sécurisées IA sur Azure / Microsoft . Définir et produire les livrables sécurité : Dossiers de sécurité Analyses de risques Blueprints sécurité Mettre en œuvre des pratiques DevSecOps adaptées aux projets IA (pipelines CI/CD sécurisés). Intégrer les dispositifs de sécurité Cloud avec les outils SOC / SIEM . Garantir la conformité aux réglementations et normes cybersécurité internationales (RGPD, IA, cloud). Participer à la diffusion des bonnes pratiques de sécurité IA au sein des équipes. Compétences clés (impératives) Sécurité opérationnelle Cloud Azure Expertise DevSecOps Expérience sur architectures Gen-IA Maîtrise des risques propres aux LLM Environnements Microsoft 365 / Copilot Compétences importantes Sécurisation des pipelines CI/CD Documentation cybersécurité (dossiers, blueprints, analyses de risques) Intégration SIEM / SOC sur Cloud Réglementations internationales (RGPD, IA, Cloud) Bonnes pratiques de sécurité IA et Cloud Microsoft Normes de cybersécurité Cloud Capacité à gérer l’ambiguïté et l’incertitude Forte capacité rédactionnelle et analytique Approche agile orientée gestion des risques Compétences rares / expert Sécurité avancée Azure + Gen-IA DevSecOps appliqué aux projets IA Cloud Expertise approfondie sur les risques LLM Architecture sécurisée Azure / Microsoft pour l’IA Sécurisation avancée de Copilot / Microsoft 365
Offre d'emploi
Data Engineer Junior (H/F)
Publiée le
Apache Spark
Databricks
Python
3 ans
35k-40k €
350-400 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Intégré(e) au sein d’une équipe Agile, vous participerez à : La conception et la mise en place de pipelines ETL performants L’ingestion, la transformation et la qualité des données La gestion et l’optimisation des flux Data dans un environnement Azure / Databricks / Spark L’automatisation des traitements et le monitoring des workflows La collaboration avec les équipes métier et Data pour répondre aux enjeux opérationnels La collaboration avec les équipes métier et Data pour répondre aux enjeux opérationnels
Offre d'emploi
Administrateur Bases de Données PostgreSQL / MySQL – Senior (H/F)
Publiée le
Cloud
MariaDB
MySQL
1 an
Ivry-sur-Seine, Île-de-France
Contexte Rattaché à l’équipe Administration des Bases de Données au sein de la DSI, le consultant intégrera une équipe de plus de 10 DBA dédiée à la mise en œuvre et à l’exploitation de projets de grande envergure . La mission porte sur l’ administration opérationnelle en production de bases de données critiques sur PostgreSQL et MySQL , avec une forte composante RUN, projets, automatisation et Cloud . Objectif de la mission Assurer l’ administration, l’exploitation et l’évolution des bases de données PostgreSQL et MySQL en environnement de production, tout en accompagnant les projets d’architecture, de performance, de sécurité et d’automatisation. Missions principales RUN / Exploitation Administration des bases de données PostgreSQL et MySQL . Support N3 / Expertise , en lien avec les équipes de développement et d’exploitation. Suivi du MCO et mise en place des procédures d’exploitation . Gestion des incidents, changements et problématiques de production. Gestion du PRA et de la continuité de service. Supervision, homologation et veille technologique . Projets & Architecture Participation aux projets d’architecture, de déploiement et d’évolution des SGBD. Optimisation des performances et de la configuration des bases. Maîtrise des opérations de patching, upgrades et migrations . Définition et mise en œuvre des stratégies de sauvegarde, restauration, PITR . Mise en place et gestion de la réplication , des clusters et de la haute disponibilité : PostgreSQL (Patroni) MySQL (Group Replication) Gestion du failover et des stratégies de bascule automatique. Automatisation & Cloud Étudier et accompagner le déploiement des SGBD sur des solutions Cloud / opérateurs . Proposer et mettre en œuvre des tâches d’automatisation pour les déploiements et l’administration. Utilisation et maintien des outils d’automatisation : Ansible, Git . Sécurité & Gouvernance Participation aux projets sécurité, audit et gestion des accès . Contribution aux bonnes pratiques de conformité et de sécurité des données. Environnement technique SGBD : PostgreSQL, MySQL, MariaDB Haute disponibilité : Patroni, MySQL Group Replication Automatisation : Ansible, Git Cloud & conteneurs : OpenStack, OpenShift, Docker Systèmes : Linux (RHEL, Ubuntu, CentOS, Oracle Linux, AIX) Sauvegardes : Commvault, Veeam, DataDomain (ou équivalents) Virtualisation : VMware Compétences techniques Impératives : PostgreSQL – Expert MySQL – Expert Importantes : MariaDB – Confirmé Souhaitables : Cloud Automatisation (Ansible, Git) Compétences linguistiques Français courant (impératif) Anglais professionnel (impératif)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
3329 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois