L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 687 résultats.
Offre d'emploi
Lead AI Engineer
ANDEMA
Publiée le
AI
GenAI
Large Language Model (LLM)
60k-75k €
Paris, France
Dans le cadre d’un projet stratégique Data & IA, nous accompagnons l’un de nos clients, acteur tech à fort enjeu produit, dans le recrutement d’un Lead AI Engineer. Le rôle Le Lead AI Engineer est responsable de la conception, du développement et du déploiement de solutions IA à forte valeur métier. À la fois référent technique IA et acteur clé du delivery, il combine une posture très hands-on avec une vision produit / ROI, en lien étroit avec les équipes métier, produit et la direction. Vos responsabilités 1. Conception & développement de solutions IA (cœur du poste) Concevoir et développer des solutions IA avancées : LLM & GenAI (RAG, MCP, agents, workflows IA, fine-tuning si nécessaire) Modèles de scoring, recommandation, prédiction, classification Développer des solutions robustes, scalables et industrialisées, prêtes pour la production Être très fortement hands-on en développement, principalement en Python Garantir la qualité du code, la performance, la sécurité et la maintenabilité Utiliser des outils d’assistance au développement (ex. Claude Code) 2. Leadership technique & delivery IA Porter les projets IA de bout en bout : cadrage fonctionnel et technique, choix d’architecture, priorisation delivery, mise en production et suivi de la valeur Jouer un rôle de leader technique, sans management hiérarchique direct Être capable d’arbitrer et de prendre des décisions techniques structurantes Structurer le delivery dans une logique produit et ROI, en lien avec le CPTO 3. Interface produit, métier et direction Travailler en proximité avec : les équipes métiers, le produit, les équipes techniques, la direction Traduire des besoins métier complexes en solutions IA concrètes Animer des ateliers de cadrage, restituer les avancées, vulgariser les sujets IA Porter une vision transverse des projets (roadmap, dépendances, risques) 4. Structuration et montée en maturité IA Contribuer à la vision IA globale (choix technologiques, standards, bonnes pratiques) Mettre en place des patterns réutilisables (RAG, pipelines IA, templates projets) Participer à la diffusion de la culture IA Assurer une veille active sur les évolutions IA (LLM, frameworks, usages) Environnement technique Langage : Python (expert) IA / Data : LLM / GenAI, RAG, embeddings, agents Pandas, PySpark (selon cas) Plateforme Data : MinIO, MongoDB, PostgreSQL, ElasticSearch, Airflow, RabbitMQ Infra : Docker, Kubernetes Dataviz / exposition : PowerBI, Metabase Outils : Git, CI/CD, outils d’IA d’assistance au développement
Mission freelance
Data Product Manager
DEVIK CONSULTING
Publiée le
Analyse
Data visualisation
ERP
1 an
500-750 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Data Product Manager afin de piloter le projet migration client sur le volet Data & Visualisation L’objectif étant de construire un nouveau modèle de BDD et reporting basé sur S/4HANA ainsi que d’évaluer les impacte sur les systèmes legacy. Tâches principales Organiser l’étude et collecter les éléments auprès de l’ensemble des parties prenantes Comprendre les ambitions, enjeux et objectifs métiers Organiser et animer des ateliers avec les équipes métiers Collecter l’ensemble des besoins métiers nécessaires à l’étude Documenter l’architecture fonctionnelle Réaliser la modélisation des données / concevoir les couches métiers (Silver layer) Coordonner les contributeurs Data as a Service (Architecte technique, Data Engineers, BI Engineers) Documenter la valeur de la solution Préparer le budget et le planning build/run Formaliser les propositions finales de passage en projet (« Go to project ») Compétences demandées Analyse de données : Expert ERP : Expert Data Modeling : Expert Power BI : Confirmé SAP : Expert Communication : Expert SQL : Expert Data : Expert Langues Français : Courant Anglais : Courant Requis Lieu : Paris
Mission freelance
FREELANCE – Lead Analytics (H/F)
Jane Hope
Publiée le
Azure Data Factory
Azure Synapse
DAX
6 mois
450-550 €
Lille, Hauts-de-France
Notre client, basé à Lille (59), est à la recherche d’un Lead Analytics (H/F) freelance pour être le référent technique et le manager de proximité de la verticale Analytics au sein du département IA & Data. MISSIONS Vous vous placez au cœur de la chaine de valeur analytique : vous produisez, structurez, accompagnez la montée en compétences des équipes et de la plateforme data. Objectifs court terme : · Prendre en main l'équipe et établir une relation de confiance avec les Data Analysts dans les 3 zones géographiques · Auditer l'état du portefeuille analytique existant (rapports, dashboards, modèles de données) et comprendre les priorités · Livrer des cas d'usage analytiques à fort impact pour démontrer la valeur de la verticale. Objectifs long terme : · Contribuer à la feuille de route analytique alignée sur les priorités business et la stratégie Data & AI · Faire monter en maturité l'équipe sur les pratiques avancées d'analyse et l'usage de Microsoft Fabric / Power BI · Développer un modèle de self-service analytics fiable, gouverné et scalable pour les métiers · Établir un cadre de mesure de la valeur créée par la verticale (adoption, qualité, impact business) Responsabilités techniques : · Concevoir, développer et maintenir des modèles sémantiques et dashboards Power BI complexes · Produire des analyses et des requêtes avancées pour répondre aux questions business stratégiques · Assurer la qualité et la cohérence des données analytiques exposées aux métiers · Documenter les logiques de calcul, les sources et les définitions de métriques · Réaliser des revues de code et du pair-programming avec les Data Analysts de l'équipe Responsabilité managériale : · Animer l'équipe d’environ 7 Data Analysts répartis en Europe, Amérique du Nord et Russie · Conduire les entretiens individuels, fixer les objectifs et accompagner le développement professionnel · Piloter le cycle d'évaluation annuelle de l'équipe (performance, développement, plan de progression) · Assurer la montée en compétence des équipes sur les outils et pratiques analytiques (Microsoft Fabric, Power BI, DAX) · Gérer le budget de la verticale Analytics et en assurer le suivi · Gérer la relation avec les fournisseurs et partenaires externes liés aux outils et services analytiques · Représenter la verticale Analytics dans les instances de gouvernance du département AI & Data · Coordonner avec les autres verticales (Data Platform, Data Delivery, Data Governance) pour fluidifier les livraisons ENVIRONNEMENT TECHNIQUE · Microsoft Fabric : PowerBI, Lakehouse, Onelake · DAX, Power Query · SQL · Azure Data : Azure Data Lake, Synapse
Mission freelance
DATA ANALYST - Expert (>10 ans) F/H
SMARTPOINT
Publiée le
Apache Spark
Databricks
DataGalaxy
24 mois
550-580 €
Île-de-France, France
Dans le cadre du renforcement du DataLab, nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts du DataLab. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertise en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes
Mission freelance
Consultant BI / DataViz Senior
CAT-AMANIA
Publiée le
Microsoft Power BI
Modélisation
PostgreSQL
9 mois
360-510 €
Lyon, Auvergne-Rhône-Alpes
Description du poste Dans le cadre de l’application iPilot (BI de la Chaîne Communicante du Marché d’Affaires), vous intervenez en tant que Consultant BI / DataViz afin de consolider, analyser et restituer des données à forte volumétrie. Vous contribuez directement au pilotage de la performance via la conception de dashboards et l’analyse des indicateurs, en lien étroit avec les équipes métiers et techniques. Missions principales Analyser les besoins métiers et traduire les attentes en solutions BI pertinentes Concevoir, développer et optimiser des dashboards (Tableau / Power BI) Modéliser et structurer les données (datawarehouse / datamarts) Consolider et fiabiliser des données issues de multiples sources Analyser les indicateurs de performance et expliquer les variations Identifier des axes d’amélioration et proposer des optimisations data-driven Interagir avec les parties prenantes (métiers / IT) pour affiner les usages Contribuer à l’amélioration continue des outils de pilotage
Mission freelance
Ingénieur Analyste Cybersécurité – Expert Auto
Codezys
Publiée le
Automatisation
Azure
Cloud
12 mois
Paris, France
Contexte de la mission Le consultant spécialisé en automatisation DevOps et gestion des événements IT/Sécurité sera chargé d’optimiser l’efficacité des processus opérationnels liés au suivi des incidents et des alertes. Sa mission consistera à concevoir et à déployer des workflows automatisés pour la création et le suivi des tickets, à industrialiser la génération de tableaux de bord et de rapports, tout en assurant une intégration fluide entre les différentes plateformes (ServiceNow, outils de monitoring, outils BI, etc.). Il interviendra dans un environnement technique diversifié comprenant : Outils & plateformes ITSM : ServiceNow, Jira BI / DataViz : Power BI, Grafana, ELK DevOps : GitHub Actions, GitLab, Azure DevOps, Jenkins Développement & scripting Python (prioritaire), PowerShell, Bash, Go API REST / GraphQL Infrastructure & Cloud Azure, AWS, GCP Terraform, Ansible Docker, Kubernetes, OpenShift Systèmes Linux / Windows Objectifs et livrables La mission du consultant portera principalement sur l’automatisation des processus liés à l’IT et à la cybersécurité, avec pour objectifs : Implémenter des automatisations fiables pour la création et le suivi des tickets dans les outils ITSM Développer et industrialiser l’automatisation du reporting et du tableau de bord (KPIs, incidents, SLA) Assurer la connectivité et l’intégration entre les différentes plateformes IT et Cloud afin de fluidifier la gestion des événements Réduire la charge manuelle des opérations récurrentes et chronophages Améliorer la qualité, la rapidité et la fiabilité du suivi des incidents ainsi que des rapports associés Élaborer une roadmap d’automatisation cohérente avec les priorités business et IT Missions principales Conception et développement de solutions d’automatisation Mise en place de pipelines CI/CD et de chaînes d’intégration automatisées Intégration des outils IT et de sécurité Développement de scripts d’automatisation pour le SOC Production de dashboards et de rapports automatisés Amélioration continue des processus opérationnels Accompagnement des équipes dans l’adoption des solutions Livrables attendus Workflows automatisés (création de tickets, gestion d’incidents) Tableaux de bord et reporting automatisés Scripts et pipelines CI/CD documentés Documentation technique et procédures opérationnelles Roadmap pour l’amélioration continue Rapports de suivi de prestation
Offre d'emploi
Développeur Python – IA / DevOps (H/F)
NSI France
Publiée le
Python
1 an
50k-55k €
500-600 €
Île-de-France, France
Nous recherchons un Développeur Python confirmé , doté d’une forte expertise technique, d’une appétence pour l’IA et d’une réelle sensibilité DevOps. Ce poste ne vise pas un profil Data Scientist ou Data Engineer : il s’agit d’un rôle de développeur Python haut niveau , capable d’intégrer, d’opérer, d’industrialiser et de fiabiliser des services IA. Responsabilité de la mission Intégrer et maintenir les services d’IA au sein d’une plateforme IA interne . Déployer et maintenir les composants de l’IA générative : LLMs, modèles d’embeddings, bases vectorielles, agents, orchestrations. Accompagner l’identification et le déploiement de cas d’usage IA pertinents au sein du groupe (contexte international). Maintenir les plateformes permettant la publication des services IA et les frameworks associés. Maintenir la plateforme de R&D mise à disposition des data scientists et leur apporter un support technique. Participer activement à la réduction de la dette technologique, notamment via la containerisation et l’industrialisation des composants.
Mission freelance
SAP MASTER DATA
KUBE Partners S.L. / Pixie Services
Publiée le
SAP
6 mois
Paris, France
Je cherche activement un consultant SAP Master Data,côté production, dans le cadre de la construction d'un core modele. Pour la phase de cadrage, design et conception : démarrage ASAP Tâches Base article et non article Fiche info achats Fiche info fournisseurs Nomenclature production Gamme de production Costing Migration avec interfaces PLM vers SAP basées sur des Idocs et LSMW Lien avec metier Leadership Compétences requises : Master Data SAP (min 5 ans exp) Expérience conception générale indispensable, paramétrage, custo Orienté best practice Langues : français et anglais mandatory
Offre d'emploi
Ingénieur Senior C++ / QT / Python – Simulation Scientifique
ABTEKA
Publiée le
C/C++
QT
6 mois
44k-55k €
440-520 €
Paris, France
Ingénieur Senior C++ / Python – Simulation Scientifique (CDI ou Freelance) Localisation : Paris ouest Type de contrat : CDI ou Freelance Démarrage : ASAP PAS DE SOUS-TRAITANCE SVP Contexte Dans le cadre de notre développement, nous recherchons un Ingénieur Senior C++ / Python pour intervenir sur un produit logiciel à forte valeur technologique, dédié à la modélisation, la simulation numérique et l’optimisation en environnement industriel complexe . Le projet porte sur l’évolution d’une solution stratégique intégrant : Calcul scientifique avancé Modèles physiques complexes Algorithmes d’optimisation Traitement de volumes de données importants Vous interviendrez au sein d’une équipe R&D experte sur un produit reconnu à l’international.
Mission freelance
Dbt Technical Expert – Data Engineer Senior
Signe +
Publiée le
DBT
12 mois
400-630 €
Paris, France
Cette mission s’inscrit dans une initiative de modernisation et de standardisation des processus de transformation de données au sein d’un grand groupe international. L’objectif est d’industrialiser une plateforme dbt (data build tool) afin de garantir : Des pipelines ELT robustes, scalables et maintenables L’application de standards homogènes à l’échelle groupe Un accompagnement technique de haut niveau auprès des équipes projets Le profil recherché est un Data Engineer expert dbt, capable d’intervenir sur la définition des standards, la mise en œuvre technique, l’optimisation, la gouvernance et la formation. Informations contractuelles Titre de la mission : Dbt Technical Expert Démarrage : ASAP Fin de mission : 31/12/2026 Localisation : Vélizy-Villacoublay (78)
Offre d'emploi
Développeur Fullstack .NET / Python & IA Générative (Trading & Risk)
VISIAN
Publiée le
.NET
3 ans
40k-45k €
400-600 €
Île-de-France, France
Le Contexte : Au sein d'un acteur majeur du secteur de l'énergie, vous intégrez un département en pleine transformation logicielle. L'objectif est de sécuriser le déploiement d'un nouveau progiciel financier mondial via l'automatisation et l'IA. 🎯 Votre Mission : Framework QA intelligent : Concevoir et automatiser un framework de tests pour l'ensemble de la chaîne applicative de trading. Innovation IA : Développer des POCs utilisant l' IA Générative pour l'analyse d'anomalies, la génération de cas de tests et l'optimisation de la couverture. Développement Fullstack : Créer des outils internes et des tableaux de bord (Angular/React) pour le suivi de la qualité. DevOps & Data : Intégrer les tests dans des pipelines CI/CD complexes et manipuler des données de marché via Python. 💻 Profil Recherché : Expérience : +10 ans, avec une solide culture en Finance de marché ou Commodités. Stack : C# .NET, Python (scripting/data), Angular ou React, SQL. Expertise QA : Maîtrise des outils d'automatisation UI/API et des orchestrateurs de batchs (type Automic). Mindset : Passionné par l'IA et capable d'évoluer dans un environnement à forte résistance au stress.
Mission freelance
Service Delivery Manager – Plateforme DATA / IA
KatchMe Consulting
Publiée le
SLA
6 mois
500-600 €
Issy-les-Moulineaux, Île-de-France
Le Service Delivery Manager intervient au sein d’une direction informatique en charge des infrastructures, de la production et de la supervision des systèmes d’information. Dans un contexte de transformation numérique et d’intégration d’équipes techniques issues de différentes entités, le poste vise à garantir la qualité, la continuité et la performance des services IT fournis aux métiers. Le Service Delivery Manager joue un rôle central dans la coordination entre les équipes métiers, les équipes techniques et la gouvernance des projets. Il veille à l’alignement des services informatiques avec les besoins opérationnels et s’assure du respect des engagements de service. Dans ce cadre, ses principales responsabilités sont : Garantir le respect des engagements opérationnels (OLA) et veiller au respect des engagements de service (SLA) . Participer à la gestion des incidents majeurs et des crises informatiques . Organiser et piloter les retours d’expérience (REX) suite aux incidents majeurs et assurer le suivi des plans d’actions. Assurer la gestion des problèmes selon les bonnes pratiques ITIL , afin d’identifier les causes racines et réduire la récurrence des incidents. Assurer le suivi des indicateurs de performance et produire les reportings associés. Représenter l’équipe dans les instances de pilotage de la qualité de service lorsque nécessaire. Contribuer au maintien en conditions opérationnelles du système d’information . Participer à la validation et à l’évolution du catalogue de services . Être responsable de la documentation opérationnelle relative à la gestion des incidents. Contribuer à l’ amélioration continue des processus RUN , notamment sur les processus de gestion des incidents, des problèmes et des demandes. Dans son rôle opérationnel, le Service Delivery Manager contribue également à : Définir et formaliser la convention de services de la plateforme. Garantir la qualité et la disponibilité des services IT . Maintenir un haut niveau de satisfaction des utilisateurs et des métiers . Optimiser l’utilisation des ressources techniques et organisationnelles . Favoriser une démarche d’amélioration continue basée sur les retours d’expérience et les indicateurs de performance.
Mission freelance
POT9092 - Des Développeurs C++, QT, Python sur Grenoble
Almatek
Publiée le
Python
6 mois
Grenoble, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients, des Développeurs C++, QT, Python sur Grenoble. Almatek recherche pour l'un de ses clients, des Développeurs C++, QT, Python sur Grenoble. Almatek recherche pour l'un de ses clients, des Développeurs C++, QT, Python sur Grenoble. Almatek recherche pour l'un de ses clients, des Développeurs C++, QT, Python sur Grenoble. Almatek recherche pour l'un de ses clients, des Développeurs C++, QT, Python sur Grenoble. Almatek recherche pour l'un de ses clients, des Développeurs C++, QT, Python sur Grenoble.
Mission freelance
Business Analyst Data Platform / Databricks Connaissance SAP
TAHYS RECRUITMENT SOLUTIONS
Publiée le
Databricks
SAP FICO
12 mois
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un client basé à Lyon un Freelance Data Engineer / Data Platform Consultant pour intervenir au cœur d’un environnement Data stratégique basé sur Databricks . 🎯 Contexte de la mission Vous jouerez un rôle clé à l’interface entre les métiers (Qualité, Usines, Finance, Opérations…) et la plateforme Data. Votre objectif : faciliter l’exploitation de la donnée en traduisant les enjeux métiers en solutions analytiques concrètes. 🚀 Vos responsabilités ✅ Recueil & traduction des besoins métiers Comprendre les problématiques opérationnelles Transformer les besoins en cas d’usage analytiques ✅ Data Engineering & Gouvernance Identification des sources (SAP ERP, MES Apriso, CRM…) Nettoyage, transformation et structuration des données Garantie de la qualité et de la cohérence Respect des process de gouvernance ✅ Analyse & Valorisation Analyses descriptives, exploratoires, prédictives SQL, Python, R… Identification de leviers d’optimisation ✅ DataViz & Storytelling Création de dashboards (Power BI, Tableau, Qlik…) Restitution claire et orientée décision Construction de véritables “data stories” ✅ Accompagnement à la décision Recommandations opérationnelles Définition & suivi des KPIs Mesure d’impact
Mission freelance
Data Analytics Engineer
STHREE SAS pour COMPUTER FUTURES
Publiée le
Microsoft Power BI
Python
6 mois
Paris, France
Concevoir et mettre en œuvre des solutions data pour soutenir les objectifs business. Analyser et interpréter des données complexes afin d’en extraire des insights actionnables. Collaborer avec des équipes transverses pour identifier et résoudre les défis liés aux données. Développer et maintenir des pipelines de données, des modèles et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données tout au long de leur cycle de vie. Fournir une expertise technique et un accompagnement aux parties prenantes pour favoriser la prise de décision basée sur les données
Mission freelance
Chef de Projet / Lead Sécurité Data & Cloud (GCP) H/F
Inventiv IT
Publiée le
BI
Data governance
Google Cloud Platform (GCP)
6 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission Suite à un audit interne, la mission vise à : Structurer une roadmap sécurité Data Renforcer la protection des données Améliorer le maintien en condition opérationnelle (PRA / PRI) Sécuriser la migration vers le Cloud (GCP) Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission Structurer et piloter la sécurisation du patrimoine Data Mettre en œuvre les exigences PCI / PRI Data Revoir et fiabiliser les habilitations On Prem & Cloud Renforcer la gouvernance des données sensibles Sécuriser les outils Data / BI / Data Science Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Compétences techniques clés Architecture sécurité Cloud (GCP) BigQuery security & Data masking IAM avancé PRA / PRI Data Governance Sécurité applicative Data Environnements Hadoop / Oracle Soft skills Leadership transverse Capacité à dialoguer avec RSSI & CoDir Structuration roadmap Vision stratégique et opérationnelle Responsabilités principales Sécurisation des accès Revue des habilitations On Prem et Cloud Mise en œuvre du principe de moindre privilège Gestion des comptes applicatifs et nominatifs Automatisation des habilitations Cloud Amélioration du processus de revue des droits PRA / PRI Data Structuration PCI / PRI Data Cartographie applicative & technique Identification des criticités Organisation sauvegardes et tests de restauration Priorisation PCI Cloud Gouvernance & protection des données Revue criticité données (RH, Finance, SP, IARD) Anonymisation / pseudonymisation / masking Harmonisation vers masking dynamique BigQuery Auditabilité & conformité RGPD Sécurisation des outils Cartographie des principes SSO Sécurisation outils BI & Data Science Implémentation OAuth2 / SSO Ségrégation projets GCP Coordination sécurité Interface RSSI / DDSI / Data Office Intégration périmètre Data dans outils internes Suivi vulnérabilités Animation comités sécurité Data Environnements techniques Cloud : GCP, BigQuery, DBT, Data Fabrik Cloud On Prem : Hadoop, Hive, Oracle, SAS, Informatica / PowerCenter, NAS Outils Data / BI / Data Science : Dataiku, BO, Tableau, RStudio, Jupyter, IDE Python Référentiels & sécurité : LeanIX, IAM, OAuth2 / SSO
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2687 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois