Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 314 résultats.
Mission freelance
DATA ENGINEER-EXPERT DATAIKU - FINANCE (H/F) 75
Mindquest
Publiée le
Apache Spark
Dataiku
PySpark
6 mois
Paris, France
Profil souhaité: DATA ENGINEER (Minimum 5 ans d'Xp) avec grosse expérience Dataiku (au moins 4 ans), Ayant déjà travaillé sur des projet Finance et/ou en environnement Finance. (Forecast/Revenue/Topline/CA/Prévision/Prédiction/Ventes) Contexte: Dans un contexte de structuration et de montée en maturité des usages Data au sein d’une Direction Financière, la mission vise à renforcer les capacités analytiques autour de la prévision du chiffre d’affaires. L’objectif est de concevoir et d’industrialiser un produit Data stratégique permettant une projection automatisée et multidimensionnelle du chiffre d’affaires (produits, zones géographiques, canaux de vente, infrastructures). Le consultant interviendra au cœur d’une organisation Finance & Data, en tant que référent Data Finance, à l’interface entre les équipes Finance, Data et Produit. Missions: Concevoir, maintenir et faire évoluer un produit Data de projection du chiffre d’affaires Développer et industrialiser des modèles de prévision intégrant des mécanismes basés sur les volumes Permettre des ajustements manuels des projections par les équipes métiers Garantir la qualité, la fiabilité, la traçabilité et l’exploitabilité des données Développer et maintenir des pipelines de données sous Dataiku Implémenter des traitements SQL avancés et des flux de transformation complexes Exploiter Spark / PySpark pour gérer des volumétries importantes Automatiser, monitorer et documenter les chaînes de traitement Mettre en œuvre des contrôles de qualité et contribuer à la gouvernance des données financières Rendre les modèles explicables et actionnables pour les équipes Finance Mettre à disposition les données projetées dans le datalake Collaborer étroitement avec les équipes Finance, Data et Produit Participer aux rituels agiles et au suivi des livrables via des outils de gestion de projet
Mission freelance
Product Manager Data (H/F)
Atlas Connect
Publiée le
Product management
12 mois
France
Nous recherchons des Product Managers Data pour piloter des produits et plateformes data à fort impact business. En lien étroit avec les équipes Data, Tech, Métiers et BI , vous serez responsable de la vision produit, de la priorisation des besoins et de la livraison de solutions data créatrices de valeur. Vos missions pourront inclure : Définition de la vision produit Data et de la roadmap associée Recueil et formalisation des besoins métiers liés à la data Priorisation du backlog (use cases data, features, dette technique) Collaboration étroite avec les équipes Data Engineers, Analytics, Data Science Suivi de la delivery et mesure de la valeur business générée Mise en place de KPIs , data products et indicateurs de performance Contribution à la gouvernance data et aux bonnes pratiques produit
Mission freelance
Data Ingénieur
STHREE SAS pour HUXLEY
Publiée le
18 mois
500 €
France
Le rôle du Data Engineer dans ce projet consistera à : * Concevoir et implémenter les composants/pipelines d'ingestion de données en scala spark (glue jobs, sans utilisation de solutions managées type Databricks) * Traiter et normaliser les données * Refactoriser des imports existants pour être compliant avec l'architecture medaillon (silver + gold layers) et notre modèle uniformisé/harmonisé à toutes les plateformes (aggrégateurs, market exchanges) * Appliquer/challenger les règles métier pour générer la couche gold tout en garantissant les performances, la scalabilité et les coûts cloud * Distribuer les données aux différents consommateurs/Métiers * Implémenter les règles de Data Quality (DataQuality framework : great expectation) et gérer le data calatog * Développer et améliorer les frameworks communs (monitoring, CI/CD, tests, performance, résilience, standards de développement, qualité du code) * Rédiger et maintenir la documentation technique des développements réalisés : schéma d'architecture, Infra, Flux, … * Garantir le respect des standards du Groupe en matière de qualité, sécurité, partage, usage et architecture des données * Participer au développement et à la maintenance du calculateur en Scala Spark avec l'objectif : - d'optimiser le temps de calculs, - d'optimiser les performances, - de garantir la scalabilité au regard d'un accroissement annuel important du volume des market operations, - de maîtriser et d'optimiser les coûts cloud. * Être force de proposition pour améliorer les processus et les performances des systèmes.
Mission freelance
Consultant BI Fonctionnel (PBI) - confirmé - freelance - Rouen H/F
GROUPE ARTEMYS
Publiée le
1 mois
300-350 €
76000, Rouen, Normandie
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Dans un contexte de forte demande autour du reporting et de la valorisation de la donnée, nous recherchons pour notre client, un Consultant BI fonctionnel H/F capable de transformer des besoins métiers parfois flous en reportings clairs, lisibles et exploitables . Le rôle s’inscrit à l’interface entre les équipes métiers et l’équipe Data Services. L’objectif est de faciliter la compréhension, la conception et l’adoption des reportings Power BI, en apportant à la fois une approche fonctionnelle, pédagogique et une base technique solide. Ce poste ne correspond ni à un rôle de développeur Power BI pur, ni à un support IT classique : il s’agit d’un profil d’interface et de facilitation data . Votre mission (si vous l’acceptez) : Cadrage & accompagnement métier Recueillir et analyser des besoins de reporting parfois peu structurés Reformuler et clarifier les attentes utilisateurs Challenger les demandes lorsque nécessaire (pertinence des indicateurs, faisabilité, lisibilité) Aider les métiers à prioriser et structurer leurs besoins Traduire les besoins fonctionnels en spécifications exploitables par l’équipe Data Services Favoriser l’adoption des reportings et bonnes pratiques BI Pédagogie & communication Vulgariser les concepts data et BI auprès d’utilisateurs non techniques Expliquer les choix de modélisation et d’indicateurs Accompagner les utilisateurs dans la lecture et l’exploitation des tableaux de bord Animer des ateliers, démonstrations ou sessions de prise en main Servir de point de contact fonctionnel sur les sujets Power BI Contribution technique (≈ 20 % du temps) Créer et faire évoluer des rapports Power BI Comprendre les modèles de données existants Lire, comprendre et ajuster des mesures DAX existantes Réaliser des transformations simples via Power Query Participer à l’amélioration continue des reportings Identifier les impacts liés aux flux de données amont Interface avec l'écosystème data Comprendre les flux et chaînes de transformation de données en amont Échanger efficacement avec les équipes techniques autour de : SQL Alteryx Denodo Modèles de données Faciliter la collaboration entre métiers et experts data L’environnement technique : Indispensable : Bonne expérience pratique de Power BI Conception et évolution de rapports Bonne compréhension des modèles de données Lecture et adaptation de DAX existant Maîtrise de Power Query (niveau opérationnel) Culture data générale (indicateurs, qualité de données, transformations) Souhaité : Connaissance des environnements SQL Notions des outils de préparation / virtualisation de données (ex : Alteryx, Denodo) Compréhension des architectures data décisionnelles Le poste ne requiert pas un profil Data Engineer, mais une capacité à comprendre et dialoguer avec ces profils. Vous, notre perle rare : Compétences comportementales Forte capacité de pédagogie et de vulgarisation Excellent relationnel avec des utilisateurs non techniques Esprit de synthèse Capacité à structurer des besoins flous Posture de conseil et de challenge constructif Sens de l’écoute Autonomie et proactivité Capacité à naviguer dans des contextes imparfaitement cadrés Goût pour le travail d’interface entre métiers et technique Profil recherché : Expérience confirmée sur Power BI Expérience en environnement métier / fonctionnel Habitude de travailler sur des besoins évolutifs ou peu cadrés À l’aise dans des contextes de transformation ou de montée en maturité data Expérience en conseil ou en rôle transverse appréciée Rémunération : TJ 300€ à 350€ (en fonction de votre expérience sur un poste similaire). Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Data Product Manager en Data Lab - Rennes
Argain Consulting Innovation
Publiée le
Google Cloud Platform (GCP)
Python
SQL
3 mois
520-570 €
Rennes, Bretagne
Au sein du Data Lab, nous recherchons un Data Product Manager freelance. Nous avons besoin d'un profil pivot, capable de traduire des besoins métier en solutions concrètes. Le poste est résolument hybride : il ne s'agit pas seulement de suivre un planning, mais bien de comprendre ce qui se passe sous le capot pour fluidifier les échanges entre les métiers et l'équipe technique. Les sujets du Data Lab sont divers, Data Science, Data Modelling, Tableaux de bord, IA générative et automatisation des processus métier. Nous ne cherchons pas un gestionnaire de projet classique, mais un profil également capable de faire, de manipuler la donnée et de réaliser des premiers prototypes. • Hybride & Transverse : Pouvoir comprendre les besoins métiers et les traduire en specs fonctionnelles et techniques. Pouvoir "traduire" le besoin vers les équipes de développement. • Technique : Être capable de manipuler la donnée (SQL) et de créer des dashboards simples (type Looker Studio) pour prototyper. • Pragmatique (Esprit Data Lab) : Pouvoir travailler en mode MVP rapide et testable • Relationnel : savoir créer du lien, fluidifier les blocages et avec une véritable aisance relationnelle. Vos responsabilités Cadrage & Spécifications (Le cœur du réacteur) • Traduire le besoin métier en spécifications fonctionnelles claires. • Rédiger les spécifications techniques pour guider les Data Engineers (modélisation, règles de gestion). • S'assurer que ce qui est demandé est techniquement viable sur notre stack. Pilotage & "Faire" • Gérer le backlog et prioriser selon la valeur business. • Effectuer les recettes techniques et fonctionnelles : vous devez pouvoir requêter la base pour valider les livrables avant de les présenter au métier. • Participer activement à la vie du Data Lab et à l'amélioration des processus.
Offre d'emploi
Consultant BI Fonctionnel (PBI) - confirmé - CDI - Rouen H/F
GROUPE ARTEMYS
Publiée le
76000, Rouen, Normandie
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Dans un contexte de forte demande autour du reporting et de la valorisation de la donnée, nous recherchons pour notre client, un Consultant BI fonctionnel H/F capable de transformer des besoins métiers parfois flous en reportings clairs, lisibles et exploitables . Le rôle s’inscrit à l’interface entre les équipes métiers et l’équipe Data Services. L’objectif est de faciliter la compréhension, la conception et l’adoption des reportings Power BI, en apportant à la fois une approche fonctionnelle, pédagogique et une base technique solide. Ce poste ne correspond ni à un rôle de développeur Power BI pur, ni à un support IT classique : il s’agit d’un profil d’interface et de facilitation data . Votre mission (si vous l’acceptez) : Cadrage & accompagnement métier Recueillir et analyser des besoins de reporting parfois peu structurés Reformuler et clarifier les attentes utilisateurs Challenger les demandes lorsque nécessaire (pertinence des indicateurs, faisabilité, lisibilité) Aider les métiers à prioriser et structurer leurs besoins Traduire les besoins fonctionnels en spécifications exploitables par l’équipe Data Services Favoriser l’adoption des reportings et bonnes pratiques BI Pédagogie & communication Vulgariser les concepts data et BI auprès d’utilisateurs non techniques Expliquer les choix de modélisation et d’indicateurs Accompagner les utilisateurs dans la lecture et l’exploitation des tableaux de bord Animer des ateliers, démonstrations ou sessions de prise en main Servir de point de contact fonctionnel sur les sujets Power BI Contribution technique (≈ 20 % du temps) Créer et faire évoluer des rapports Power BI Comprendre les modèles de données existants Lire, comprendre et ajuster des mesures DAX existantes Réaliser des transformations simples via Power Query Participer à l’amélioration continue des reportings Identifier les impacts liés aux flux de données amont Interface avec l'écosystème data Comprendre les flux et chaînes de transformation de données en amont Échanger efficacement avec les équipes techniques autour de : SQL Alteryx Denodo Modèles de données Faciliter la collaboration entre métiers et experts data L’environnement technique : Indispensable : Bonne expérience pratique de Power BI Conception et évolution de rapports Bonne compréhension des modèles de données Lecture et adaptation de DAX existant Maîtrise de Power Query (niveau opérationnel) Culture data générale (indicateurs, qualité de données, transformations) Souhaité : Connaissance des environnements SQL Notions des outils de préparation / virtualisation de données (ex : Alteryx, Denodo) Compréhension des architectures data décisionnelles Le poste ne requiert pas un profil Data Engineer, mais une capacité à comprendre et dialoguer avec ces profils. Vous, notre perle rare : Compétences comportementales Forte capacité de pédagogie et de vulgarisation Excellent relationnel avec des utilisateurs non techniques Esprit de synthèse Capacité à structurer des besoins flous Posture de conseil et de challenge constructif Sens de l’écoute Autonomie et proactivité Capacité à naviguer dans des contextes imparfaitement cadrés Goût pour le travail d’interface entre métiers et technique Profil recherché : Expérience confirmée sur Power BI Expérience en environnement métier / fonctionnel Habitude de travailler sur des besoins évolutifs ou peu cadrés À l’aise dans des contextes de transformation ou de montée en maturité data Expérience en conseil ou en rôle transverse appréciée Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 36 000 - 42 000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Senior Consultant Data & AI / Data Product Factory
SQLI
Publiée le
Database
3 mois
400-650 €
Paris, France
Hello , Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un Consultant Data & AI / Data Product Factory Senior. Contexte & Enjeux du poste : Dans un contexte de forte accélération des usages Data & IA, nous accompagnons nos clients (grands comptes et ETI) dans la structuration de leurs capacités Data & AI afin de créer de la valeur métier à travers des Data Products industrialisés. Le Senior Consultant Data & AI interviendra auprès des directions Data, IT et Métiers pour : Définir des cibles Data & AI Concevoir et déployer des Data Factories orientées produit Accompagner la transformation organisationnelle, technologique & méthodologique Missions principales : 1. Conseil & Cadrage stratégique Accompagner les clients dans la définition de leur stratégie Data & AI Identifier les cas d’usage à valeur et les transformer en Data Products Réaliser des diagnostics de maturité Data & AI Définir des roadmaps Data alignées avec les enjeux business 2 Mise en place de Data Factory orientée Data Products Concevoir des modèles de Data Factory (organisation, processus, gouvernance) Mettre en place une approche Data Product (Data Mesh / Product Thinking) Définir les rôles clés : Data Product Owner, Data Engineer, Analytics Engineer, Data Scientist, Platform Team Accompagner la mise en œuvre des rituels agiles, du delivery et de la priorisation 3. Architecture & Solutions Data & AI Cadrer et challenger les architectures Data modernes Cloud Data Platform (AWS, Azure, GCP) Lakehouse, Data Warehouse, Streaming Contribuer au choix et à la mise en place des solutions : ETL / ELT BI & Analytics Machine Learning & IA Garantir les bonnes pratiques : Qualité des données Sécurité Gouvernance MLOps / DataOps 4. Accompagnement du changement & montée en maturité Accompagner les équipes client dans la prise en main des nouveaux modèles Former et coacher les équipes Data et Métiers Contribuer à l’adoption des usages Data & IA Participer à la structuration de centres de compétences Data
Offre d'emploi
Ingénieur DATA
INFOGENE
Publiée le
44 800-54k €
Bordeaux, Nouvelle-Aquitaine
Le poste fait partie de la Direction de la Transformation Stratégique qui compte notamment quatre équipes data : BI & Data Analytics, Data & AI Technology, Data Science & AI, Stratégie & Projets Data. Sous l’autorité du/de la Responsable Data & AI Technology et du/de la Team Leader, le/la Data Engineer réalise la conception, le développement et la maintenance des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données. Il/elle intervient également sur l’architecture data pour garantir des solutions robustes, performantes et évolutives. Missions clés : • Conçoit, développe et maintient des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données • Assure le développement logiciel lié et prodigue son support aux équipes data & business dans leurs propres développements • Intervient sur l’architecture data pour garantir des solutions robustes, performantes et évolutives • Participe activement à la montée en compétence des équipes data & business et les accompagne dans l’adoption des bonnes pratiques data et DevOps • Administre et fait évoluer la plate-forme data en collaboration avec la DSI, développe les outils nécessaires Compétences attendues : • Expertise en Python et SQL, appliquée dans des environnements data complexes et exigeants, intégrée dans des pratiques DevOps (Git, CI/CD, ELK …) o Expérience solide et opérationnelle avec les outils de la modern data stack et notamment Snowflake, Airflow et Soda • Expérience démontrée dans la conception d’architectures data modulaires, scalables et résilientes, combinée à des connaissances avancées en infrastructure et cloud, en particulier Azure. • Forte sensibilité aux technologies émergentes, en particulier l’IA, avec une capacité à identifier des cas d’usage pour le business et à les intégrer dans des produits data mais aussi dans la plate-forme data
Offre d'emploi
EXPERT Snowflake
EMMA-IT
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Snowflake
1 an
Île-de-France, France
Bonjour, Nous recherchons un Lead Data Platform EXPERT Snowflake, pour intervenir chez l’un de nos clients « grand compte » DESCRIPTIF DE LA MISSION ; •Accompagner les équipes métiers dans leurs travaux d’identification et expression de leurs besoins en données et d'indicateurs décisionnels, •Capacité à concevoir des solutions innovantes et fiables nécessitant l’utilisation de technologies dites "Modern DataOps" et IA agentique pour répondre aux nouveaux cas d’usages métiers exprimés et à gérer les projets Data de bout en bout, •Piloter l'équipe de Data Engineers pour assurer la mise en oeuvre •Développer, tester, optimiser et gouverner les flux de traitement et d’ingestion de données au sein de notre Data Platform, •Avoir la capacité de créer rapidement de nouveaux Datamarts de zéro s'appuyant sur notre socle de données existant pour des usages spécifiques, •Contribuer à la mise à disposition et au partage de la donnée au travers d’outils et de processus d'export simples, rapides à mettre en œuvre et monitorables, •Déployer et optimiser au quotidien des pipelines de données (On Premise ou dans le Cloud), •Assurer la stabilité et la gouvernance technique de la plateforme Data, des applications déployées et de certaines de nos plateformes SaaS de données attenantes. Environnement technique utilisé: Snowflake, dbt Core, Linux, Cloud AWS (AWS EC2, AWS S3, AWS Serverless), Cloud CGP (Big Query, GA4), SQL, Python, Airflow, Docker, Terraform, Git, Gitlab & Gitlab CI VOUS JUSTIFIEZ DE ; · Vous êtes titulaire d’un Bac +5 en informatique, avec au minimum 7 ans d'expérience professionnelle · Vous avez de 3 à 5 ans d'expérience sur la plateforme SaaS Snowflake · Vous êtes à l'aise avec le Cloud public AWS et GCP, ses principaux services et ses méthodes de déploiements · Vous possédez des compétences avancées autour des langages et technologies suivants : SQL, Python, Airflow, Prefect, Linux, Docker, Snowflake Cortex et Snowflake Intelligence · Vous connaissez au moins un framework de développement de Web Services REST (Django, Flask, FastAPI pour Python ou éventuellement Express pour NodeJS) et l'outil Postman n'a pas de secrets pour vous · Vous connaissez bien les outils de visualisation de données (Tableau Cloud ou PowerBI) · Vous avez une bonne maîtrise de l’optimisation des déploiements et des processus d'intégration/déploiements continus (CI/CD) via des technologies du marché (comme Docker, Gitlab CI, Jenkins ou équivalent) · Vous détenez des connaissances autour des processus de gestion de la configuration et d'Infrastructure as Code (Terraform, Pulumi, Cloud Formation ou CDK AWS) et des outils d’orchestration de flux de données (comme Airflow ou Prefect) · Vous êtes à l'aise avec les outils de type agents CLI (Claude Code, Codex CLI ou OpenCode) et leur méthodologie de spécifications associée pour développer et déployer des applications autour de la data pilotées en autonomie par l'IA. · Vous connaissez bien les outils Jira et Confluence LES PLUS ; · Toute connaissance du business Retail/Fashion est un plus · Toute connaissance ou compétence sur la mise en place de projets IA agentiques de type RAG ou "Text to SQL" est un plus · Toute connaissance des outils/plateformes BW/4HANA, SAP Analytics Cloud ou PowerBI est un plus · Toute connaissance des outils d'observabilité (comme Sifflet) ou d'agrégation de données de campagnes media (Supermetrics) est un plus · Toute connaissance du déploiement et de l'orchestration de containers avec Kubernetes est un plus Si cette mission correspond à vos attentes et que votre profil correspond à ce besoin, N’hésitez pas à nous adresser votre date de disponibilité, votre CV au format Word et vos prétentions financières par ce biais. Dans l’attente d’un futur échange et d’une future collaboration, L’équipe EMMA-IT.
Offre d'emploi
Expert Technique Cybersécurité & DevSecOps – GenAI / Azure (H/F)
AVA2I
Publiée le
Azure
CI/CD
Cybersécurité
3 ans
40k-45k €
400-550 €
Île-de-France, France
Dans un contexte de déploiement et de sécurisation de solutions d’IA de nouvelle génération (GenAI, LLM, agentique) , nous recherchons un expert technique cybersécurité & DevSecOps avec une forte expertise Azure / Microsoft . Le rôle est exclusivement technique , orienté mise en œuvre concrète des contrôles de sécurité , en interaction directe avec les équipes de développement et data. Missions principales Sécurisation de la stack Azure IA / GenAI : Azure AI & Cognitive Services Azure OpenAI (si utilisé) Azure Machine Learning Fabric, Power Platform, M365 Design et implémentation des contrôles de sécurité : authentification et autorisation (RBAC, MFA, Conditional Access, PIM), sécurisation réseau et identité, cloisonnement des environnements et sécurisation des endpoints IA. Mise en place et amélioration de chaînes CI/CD sécurisées Sécurisation de l’Infrastructure as Code (Terraform, Bicep) Exploitation et paramétrage des outils Microsoft : Sentinel, Defender for Cloud, Purview (DLP, gouvernance des données) Accompagnement des développeurs, data engineers et data scientists sur : les risques IA (prompt injection, poisoning, exfiltration, escalade de privilèges), les bonnes pratiques de sécurité applicables. Livrables attendus Architectures et blueprints de sécurité pour des solutions GenAI sur Azure Configurations sécurisées des services IA Contributions aux analyses de risques et mesures de mitigation techniques Revues de code, IaC et pipelines CI/CD Mise en place de contrôles automatisés (policy-as-code, scripts, pipelines) Reporting technique sur la posture de sécurité et les plans de remédiation Profil recherché 8 à 12 ans d’expérience en cybersécurité / cloud security Au moins 3 ans récents sur des projets GenAI / LLM / IA moderne en environnement Azure Expertise confirmée sur : Azure & M365 (RBAC, MFA, Conditional Access, PIM), services IA Azure, DevSecOps / CI-CD / IaC, outils de sécurité Microsoft (Sentinel, Defender for Cloud, Purview). Capacité à intervenir sur des projets IA concrets , au-delà de simples POC Soft skills & langues Forte capacité à interagir avec des profils techniques (devs, data) Posture pédagogique et orientée solutions À l’aise en environnement international Anglais professionnel courant obligatoire Intitulés possibles Expert Technique Cybersécurité & DevSecOps – GenAI / Azure Senior Cloud Security Engineer – Azure / GenAI Architecte Sécurité Azure & M365 – IA / GenAI
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
314 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois