Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 195 résultats.
Offre d'emploi
Consultant·e Data / BI – Power BI
Publiée le
Microsoft Power BI
1 an
Le Havre, Normandie
Télétravail partiel
Vous souhaitez intervenir sur des projets BI à fort enjeu métier, en lien étroit avec les équipes IT et fonctionnelles ? Cette opportunité est faite pour vous ! Nous recherchons un·e Consultant·e Data / BI Power BI pour participer au développement, à l’évolution et à la maintenance de solutions décisionnelles au sein d’un environnement structuré. Intégré·e à une équipe IT, vous interviendrez de bout en bout sur la conception de rapports Power BI, depuis l’analyse des besoins métier jusqu’à la mise à disposition des livrables. Vos missions : Participer aux développements Power BI en collaboration avec l’équipe IT Analyser les spécifications métier afin de concevoir des solutions performantes et adaptées Estimer les charges et analyser les impacts sur le Datamart / Oracle Analyser les impacts sur le modèle sémantique Power BI Développer des rapports interactifs et ergonomiques (Desktop & mobile) Assurer la maintenance et l’évolution des rapports existants Réaliser les tests unitaires et préparer la recette métier Présenter les livrables aux équipes IT et métier, et intégrer les évolutions/corrections Suivre le planning, les engagements et les livraisons dans les différents environnements Rédiger et maintenir la documentation associée Environnement technique : Power BI (Desktop, Service, Mobile), Modélisation de données (modèle en étoile), DAX, Oracle, SQL, Datamart, Power Apps, Power Automate
Offre d'emploi
Ingénieur Data analyst tableau
Publiée le
CRM
Microsoft Access
SQL
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
Contexte & périmètre Production d’indicateurs de performance à destination des métiers Relation Client et ADV Rôle clé d’accompagnement de l’équipe Data (2 DA internes) Contribution à l’évolution des pratiques, méthodes et à l’intégration de l’IA dans les usages métiers Profil recherché Data Analyst expérimenté / senior Compétences techniques : Tableau BDD / SQL Idéalement Salesforce / CRM (incluant Salesforce Analytics) Capacité à : Accompagner l’équipe sur les nouvelles méthodes et façons de faire Déléguer et piloter une partie des chantiers auprès de deux DA internes Profil communicant, à l’aise avec les métiers Objectifs & livrables Qualification des besoins métiers lors des points de revue Priorisation et planification des sprints (revues bi-mensuelles) Production des indicateurs dans les délais engagés Validation de la conformité des livrables avec les métiers Délégation et supervision de l’avancement de certains chantiers Consolidation et reporting d’avancement (travaux directs et délégués) Accompagnement de l’équipe sur : Méthodologie Nouvelles pratiques Usage de l’IA Suivi de la production et des engagements clients
Offre d'emploi
CHEF DE PROJET DATA & IA
Publiée le
Javascript
Large Language Model (LLM)
Python
2 ans
40k-65k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client, nous recherchons, un chef de projet data & IA. 2 DESCRIPTION DE LA MISSION 2.1 Objectifs L’entreprise souhaite mettre en place un agent IA opérationnel pour traiter automatiquement des devis reçus par mail de la part de fournisseurs. L’agent devra être déployé sur une instance n8n (self hosted ou cloud ou on prem sur nos data centers) et s’intégrer dans le système d’information existant (messagerie, base de données de suivi, éventuel ERP/CRM et ITSM). L’objectif principal est d’automatiser l’analyse des devis à partir d’une grille de critères métier, de générer les réponses fournisseurs et d’alimenter une base de données de suivi, tout en escaladant les cas non conformes vers un expert humain. 2.2 Description détaillée des tâches qui constituent la mission Le chef de projet Data & IA sera responsable de bout en bout du projet d’agent IA, depuis la traduction du besoin jusqu’à la mise en production et l’amélioration continue. Responsabilités principales : • Piloter l’installation, la configuration et la sécurisation d’une instance n8n dédiée au traitement des devis. Documenter l’ensemble des étapes et aider à la mise ne place de bonnes pratiques au sein du département • Concevoir, spécifier puis superviser le développement des workflows nécessaires au fonctionnement de l’agent IA. • Définir, formaliser et maintenir la grille de critères d’analyse des devis en lien avec les équipes métier (achats, finance, opérationnels). • Mettre en place la chaîne de traitement automatique des courriels fournisseurs : récupération des mails et pièces jointes, extraction des données, analyse, décision, réponse et historisation. • Assurer l’intégration avec la base de données de suivi et les éventuels systèmes existants (ERP, CRM, outils achats). • Mettre en place la supervision, les indicateurs de performance et les procédures de gestion des erreurs et cas particuliers. Périmètre fonctionnel de l’agent IA • Réception et préparation des données (emails, pièces jointes) et Traitement des pièces jointes (extraction, normalisation) Analyse des devis selon une grille de critères • Mise en œuvre d’un modèle IA (LLM et/ou service spécialisé) pour o Structurer les informations dans un format standard (JSON ou équivalent) : fournisseur, références, lignes de postes, quantités, couts, délais… o Classer les postes de couts selon des catégories définies (main d’œuvre, matériel, prestations annexes…) • Consolidation et Application d’une grille de critères métiers o Respect de seuils de prix unitaires, totaux par catégories ; o Respect du formalisme, présence obligatoire de certaines informations o Conformité aux conditions contractuelles • Généralisation d’un verdict automatique o En cas de conformité, validation automatisée et suivi interne o En cas de non-conformité ou d’incertitude, classement pour revue par un expert o Analyse des non-conformités pour transmettre des bonnes pratiques et baisser leur occurrence. Génération de la réponse automatique au fournisseur Alimentation de la base de données de suivi • Enregistrement systématique des informations dans une base de suivi dédiée, Standardisation du traitement des données stockées entre les différents services concernés (LAN et WiFi dans un premier temps) o Identifiant du projet / devis et du fournisseur o Données extraites structurées (lignes, montants, catégories de couts) o Résultat de l’analyse (conforme/ non conforme/ incertain) o Motifs principaux de non-conformité o Lien vers l’email initial et la réponse envoyée o Date/heure de traitement, score de confiance de l’IA • Mise à disposition de vues / tableaux de bord pour o Suivre les volumes traités automatiquement o Identifier les causes récurrences de non-conformité o Suivre les performances des fournisseurs Gestion des cas non conformes et escalade • Pour les devis non conformes, classification automatique par catégorie de rejet (poste manquant, dépassement seuil de prix, données incomplètes, non-respect directive…) et attribution à un expert pour analyser. • Mise en place de mécanismes pour que les retours des experts alimentent l’amélioration continue du système Interne 2.3 Résultats attendus et/ou livrables avec échéancier si besoin • Dossier de cadrage fonctionnel et technique de la solution. • Spécifications détaillées de la grille de critères d’analyse des devis. • Instance n8n installée, configurée et documentée. • Workflows opérationnels couvrant : • Récupération des emails et pièces jointes, • Extraction/structuration des données, • Application des critères et prise de décision, • Génération des réponses fournisseurs, • Alimentation de la base de données, • Gestion des exceptions et escalades. • Documentation utilisateur et documentation technique. • Tableau de bord de suivi de la performance du système. • Plan d’amélioration continue (mise à jour des modèles, des critères, des workflows).
Mission freelance
Client Master Data Lead F/H
Publiée le
API
Data governance
Data management
12 mois
600-650 €
La Défense, Île-de-France
Télétravail partiel
Contexte : Dans le cadre de la transformation Data du Groupe , pilotée par le Group Data Office, un référentiel Client Groupe a été mis en place afin de garantir la cohérence, l’interopérabilité et la fiabilité des données clients à l’échelle de l’ensemble des entités. Dans un contexte de forte croissance via des opérations de fusions-acquisitions , chaque entité dispose aujourd’hui de ses propres systèmes d’information et bases clients. L’enjeu stratégique est désormais de déployer et intégrer ce référentiel Client Groupe sur l’ensemble des entités afin de soutenir les processus transverses et les usages analytiques. Nous recherchons un(e) Client Master Data Lead pour piloter cette démarche de déploiement et d’intégration. Missions En tant que Client Master Data Lead , vous serez en charge de : Définir et piloter la stratégie de déploiement du référentiel Client au sein des différentes entités du Groupe Assurer le rôle de coordinateur central entre le Group Data Office, les équipes IT et les équipes métiers Garantir l’alignement sur les modèles de données clients , les règles de gouvernance et les interfaces techniques Piloter la planification, les priorités et la communication auprès des parties prenantes Mettre en place un reporting structuré (KPI, tableaux de bord, suivi des risques) à destination de la Direction Data Groupe et du Comité Exécutif Responsabilités principales1. Stratégie & Gouvernance Définir la roadmap de déploiement (par entité, par domaine, par lots) Contribuer à la définition du Target Operating Model de la gestion des données clients Identifier les risques, dépendances et enjeux de conduite du changement Mettre en place les indicateurs de suivi et de performance du programme 2. Coordination & Pilotage Être le point de contact unique entre l’équipe référentiel et les équipes locales IT/métiers Coordonner les projets d’intégration (mapping, migration, synchronisation des données) Animer les comités de pilotage et groupes de travail Assurer le suivi des décisions, actions et livrables 3. Conduite du changement Promouvoir l’adoption et la valeur du référentiel Client Accompagner les métiers dans l’adaptation de leurs processus Contribuer aux supports de formation, communication et reporting Localisation 📍 Paris – La Défense (hybride, 2 jours de télétravail par semaine) Rattachement Rattaché(e) au Head of Group Data Office , avec des interactions fortes avec les équipes IT, Data Governance, Data Stewards et Architecture.
Mission freelance
[SCH] Data Scientist – Intelligence Artificielle - 1187
Publiée le
10 mois
400-450 €
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Contexte de la mission : Dans le cadre de la création d’une nouvelle entité dédiée à l’Intelligence Artificielle, notre client souhaite renforcer ses équipes avec un Data Scientist afin de développer de nouveaux cas d’usage IA à forte valeur ajoutée. La mission s’inscrit dans une logique d’innovation, de co-construction avec les métiers et de montée en compétence collective, autour de projets mêlant Machine Learning, Deep Learning, LLM et algorithmes d’optimisation, dans un contexte de sensibilité des données. Missions principales : La mission s’organise autour de trois axes majeurs : 1. Identification et analyse des besoins -Participer activement aux ateliers d’idéation avec les équipes métiers -Analyser et formaliser les besoins clients -Proposer des solutions algorithmiques sur mesure, adaptées aux enjeux métier -Challenger les cas d’usage en termes de faisabilité, performance et valeur ajoutée 2. Développement et validation des modèles d’IA -Analyser rapidement les données disponibles (qualité, volumétrie, sensibilité) -Sélectionner les modèles d’IA les plus pertinents selon les problématiques identifiées -Développer, entraîner, tester et valider des modèles : -Algorithmes d’optimisation -Machine Learning / Deep Learning -LLM -Développer et tester des applications et prototypes IA -Industrialiser les modèles en tenant compte des contraintes de sécurité et de déploiement 3. Partage de connaissance et communication -Partager régulièrement les avancées, innovations et retours d’expérience -Contribuer à la diffusion de la connaissance au sein de l’entité -Communiquer efficacement sur les succès, apprentissages et bonnes pratiques -Participer à la montée en compétence collective de l’équipe Profil attendu : -Data Scientist confirmé avec une forte appétence pour l’innovation -Capacité à intervenir de l’idéation à l’industrialisation -À l’aise dans des environnements collaboratifs et pluridisciplinaires -Excellent sens de la communication et de la pédagogie -Autonomie, curiosité et esprit de recherche appliquée
Mission freelance
Data Engineer/Architect Apache Iceberg (Marseille 3j)
Publiée le
Apache
Google Cloud Platform (GCP)
Python
6 mois
600-620 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer/Architect(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de la fabrication et la commercialisation des drones. Description 🧭 Contexte de la mission Dans un contexte de forte croissance des usages data autour de données issues de capteurs drones , la mission vise à concevoir et structurer une plateforme data internalisée , capable d’absorber des volumes importants de données hétérogènes (temps réel et batch), tout en répondant à des enjeux de sensibilité des données clients et de maintenance prédictive . 🛠️ Missions principales et rôle Concevoir et mettre en place un Data Lake basé sur une architecture médaillon (Bronze / Silver / Gold) Gérer l’ingestion et le stockage de données capteurs drones et de données tabulaires Mettre en œuvre une architecture data basée sur Apache Iceberg Garantir la disponibilité rapide des données après les vols d’essai Participer à la conception d’une brique data autonome , isolable pour les cas de données sensibles clients Contribuer à l’ internalisation de la plateforme data Traiter des pics de charge importants (jusqu’à 10 Go de données arrivant simultanément) Collaborer avec les équipes plateforme et data science sur les cas d’usage de maintenance prédictive 🎯 Objectifs Centraliser et fiabiliser les données drones dans un Data Lake scalable et robuste Permettre une exploitation rapide des données post-vol Sécuriser et isoler certaines données selon les contraintes clients Préparer les données pour des usages avancés (analytique, maintenance prédictive)
Mission freelance
Analyste Web & Data Driven (H/F)
Publiée le
Piano Analytics
Web analytics
12 mois
Villeneuve-d'Ascq, Hauts-de-France
Télétravail partiel
Espace Freelance recherche pour l'un de ses clients un Analyste Web & Data Driven (H/F) Votre rôle sera : Analyser les données pour optimiser l’expérience utilisateur Animer la logique data-driven au sein de l’équipe Compétences recherchées : Vous maitrisez Web Analytics Vous avez déjà utilisé Piano Vous avez de bonnes bases sur Big Query Compétences linguistiques Anglais professionnel Si vous aimez travailler dans une équipe engagée pour ses utilisateurs, dans une ambiance conviviale, et que vous souhaitez être à la fois analyste et moteur de la transformation digitale, cette mission est faite pour vous !
Offre d'emploi
Développeur Python (H/F)
Publiée le
Agile Scrum
Big Data
Docker
12 mois
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS
3 ans
50k-65k €
500-580 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Offre d'emploi
Product Owner / BA Data Quality
Publiée le
Business Analysis
1 an
40k-45k €
400-730 €
Paris, France
Télétravail partiel
Descriptif du poste Mission de soutien au développement et au déploiement d'outils transverses à l'échelle de l'entreprise : Outil de dictionnaire de données, intégrant les caractéristiques associées (description des données, classification, gouvernance, traçabilité/lineage, etc.). Plateforme de contrôle qualité des données, visant à offrir des contrôles automatisés, sans code, prêts à l'emploi (complétude, intégrité, cohérence, etc.). Ces outils seront utilisés par l'ensemble des départements de l'organisation (Développement durable, IT, Ventes, Marketing, Opérations, Finance, Investissements, etc.) et devront être adaptés dans le contexte d'une fusion organisationnelle majeure.
Mission freelance
Cloud, Network and Datacenter Solution Consultant(H/F)
Publiée le
Azure
Big Data
3 mois
240-650 €
Puteaux, Île-de-France
Anglais courant obligatoire Fournir une expertise avancée sur les solutions de datacenters directs, hybrides et cloud, ainsi que sur les infrastructures associées, grâce à un support d’ingénierie solide et une direction technique claire. Le rôle garantit que les plateformes technologiques respectent les exigences réglementaires, assurent la sécurité des données, optimisent l’efficacité opérationnelle et permettent une innovation évolutive et des services fiables pour soutenir l’entreprise et ses clients. C’est une excellente opportunité de travailler sur des besoins locaux tout en faisant partie d’une équipe mondiale, au service de l’ensemble de l’organisation. Nous recherchons une personne disposant de solides compétences techniques, organisée, rigoureuse et motivée par un environnement exigeant. Le rôle Évaluer l’infrastructure informatique existante et recommander des stratégies cloud et datacenter conformes aux réglementations du secteur financier (ex. : FCA, PRA, GDPR). Concevoir, architecturer et mettre en œuvre des solutions alignées sur la stratégie technologique régionale tout en répondant aux besoins métiers. Collaborer avec l’équipe de direction sur les feuilles de route et les initiatives stratégiques. Conseiller sur l’optimisation des coûts, la gestion des risques et la résilience des systèmes financiers critiques. Architecturer des solutions sécurisées et évolutives sur les plateformes cloud publiques (Azure) et au sein des datacenters on-premise. Collaborer avec les équipes transverses pour gérer dépendances, priorités, intégrations et impacts du changement sur les personnes, processus et technologies. Travailler avec les équipes techniques (Architectes, Plateformes, Cyber, Cloud Ops, etc.) pour créer des solutions équilibrant besoins métiers et exigences de cybersécurité, en conformité avec les standards et l’appétence au risque de l’entreprise. Mettre en œuvre des stratégies de cloud hybride pour supporter les charges sensibles et les obligations réglementaires. Diriger les migrations d’applications centrales vers les environnements cloud. Contribuer à la création de documents de processus, guides, procédures, outils et modèles favorisant l’efficacité et l’adoption du cloud. Veiller au respect des cadres de conformité financière (ISO 27001, PCI DSS, SOC 2). Mettre en place des contrôles de sécurité avancés, le chiffrement et la gestion des identités pour les données financières sensibles. Supporter les audits et fournir la documentation nécessaire pour les rapports réglementaires. Surveiller les performances et la disponibilité des systèmes critiques. Optimiser l’infrastructure pour garantir haute disponibilité, reprise après sinistre et continuité d’activité. Collaborer avec les équipes risques, conformité et sécurité pour aligner la technologie sur les standards de gouvernance. Compétences requises Diplôme universitaire, idéalement dans un domaine lié au business, à l’IT ou à la sécurité. Expérience avérée en architecture cloud et solutions datacenter dans le secteur financier. Expertise en Microsoft Azure, Hyper-V et forte connaissance des modèles hybrides. Compréhension des réglementations et cadres de conformité financière. Solides connaissances en réseaux, virtualisation et stockage. Certifications telles que Azure Solutions Architect Expert ou équivalent. Minimum 10 ans d’expérience dans les domaines mentionnés. Leadership avéré. Excellentes capacités d’analyse et souci du détail. Qualités de communication exceptionnelles, à l’écrit comme à l’oral (français et anglais indispensables). Capacité à communiquer clairement auprès de différents types d’audiences. Expérience en conseil technologique. Résilience et adaptabilité. Excellentes compétences d’écoute. Compétences souhaitées Expérience avec les systèmes de transaction financière et les traitements de données volumineux. Très bonne maîtrise de l’écosystème technologique Microsoft Azure. Expérience des méthodologies d’architecture. Connaissances en sécurité applicative Azure et déploiements associés. Familiarité avec le DevOps et l’Infrastructure as Code. Standardisation des bonnes pratiques, processus et procédures de sécurité Azure. Capacité à prioriser plusieurs demandes et à communiquer clairement ces priorités aux équipes et au management. Capacité à gérer les demandes complexes, instaurer des relations de confiance sur le long terme avec les parties prenantes internes et gérer les attentes métier.
Mission freelance
Ingénieur Data Oracle/SQL/Python
Publiée le
Apache Airflow
Git
Oracle
12 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Mission freelance
Data Engineer (H/F) - 56
Publiée le
Spark Streaming
SQL
1 an
370-510 €
Vannes, Bretagne
Télétravail partiel
Context Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Mission * Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers * Mettre en œuvre les tests unitaires et automatisés * Déployer le produit dans les différents environnements * Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents * Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Mission freelance
Chef de Projet Data/IA expérimenté
Publiée le
Data analysis
IA
6 mois
400-500 €
Toulouse, Occitanie
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Chef de Projet Data/IA expérimenté. Secteur d'activité client final : aéronautique Missions principales : Piloter des projets Data et IA de bout en bout Analyser et cadrer les besoins métiers liés aux données et à l’IA Coordonner les différents acteurs du projet (équipes data, techniques et métiers) Suivre l’avancement des projets : planning, qualité, livrables S’assurer de la bonne compréhension et exploitation des analyses de données dans les projets Animer les échanges et comités projet en anglais Contribuer à la communication et à la documentation projet en anglais
Offre d'emploi
Consultant Data / BI (H/F)
Publiée le
PL/SQL
PowerBI
6 mois
40k-47k €
370-410 €
Nantes, Pays de la Loire
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Consultant Data / BI (H/F) 🚀 🚡 Entreprise reconnue dans le domaine des assurances, implantée dans de nombreuses villes en France, notre client a pour objectif d'accélérer sa transformation digitale afin d’offrir toujours plus de solutions et de services innovants. Vous interviendrez dans le cadre du renforcement des équipes Data afin d’intervenir sur des sujets de reporting décisionnel, d’exploitation de données et de datamart au sein d’un environnement structuré. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Conception, développement et maintenance de reportings décisionnels 🔸 Développement de rapports et indicateurs 🔸 Analyse des besoins métiers et traduction en solutions de reporting adaptées 🔸 Développement et optimisation de requêtes SQL et PL/SQL (impératif) 🔸 Participation à la conception, à l’alimentation et à l’exploitation de Data Marts 🔸 Contribution à l’amélioration de la qualité, de la fiabilité et de la performance des données 🔸 Documentation des développements et des reportings réalisés
Offre d'emploi
Expert Cybersécurité Cloud & Gen-IA (Azure / Microsoft)-(H/F)
Publiée le
Azure
DevSecOps
GenAI
1 an
Fontenay-sous-Bois, Île-de-France
Contexte Dans le cadre du déploiement de projets d’ Intelligence Artificielle Générative (Gen-IA) au sein d’un grand groupe bancaire international , la mission vise à renforcer la sécurité des implémentations IA sur les environnements Cloud Microsoft (Azure, Microsoft 365, Copilot). L’enjeu principal est d’accompagner les centres de compétences et les équipes métiers dans la sécurisation des usages Gen-IA, tout en maîtrisant les risques spécifiques liés aux LLM (Large Language Models) dans un contexte agile, cloud et international . Objectif de la mission Assurer la sécurisation de bout en bout des projets Gen-IA déployés sur les environnements Microsoft, en combinant cybersécurité cloud, DevSecOps et expertise IA , et en produisant une documentation sécurité complète et exploitable . Missions principales Accompagner les équipes projets et métiers dans la sécurisation des implémentations Gen-IA . Analyser et maîtriser les risques spécifiques aux LLM : Prompt injection Data leakage Model poisoning Concevoir et formaliser les architectures sécurisées IA sur Azure / Microsoft . Définir et produire les livrables sécurité : Dossiers de sécurité Analyses de risques Blueprints sécurité Mettre en œuvre des pratiques DevSecOps adaptées aux projets IA (pipelines CI/CD sécurisés). Intégrer les dispositifs de sécurité Cloud avec les outils SOC / SIEM . Garantir la conformité aux réglementations et normes cybersécurité internationales (RGPD, IA, cloud). Participer à la diffusion des bonnes pratiques de sécurité IA au sein des équipes. Compétences clés (impératives) Sécurité opérationnelle Cloud Azure Expertise DevSecOps Expérience sur architectures Gen-IA Maîtrise des risques propres aux LLM Environnements Microsoft 365 / Copilot Compétences importantes Sécurisation des pipelines CI/CD Documentation cybersécurité (dossiers, blueprints, analyses de risques) Intégration SIEM / SOC sur Cloud Réglementations internationales (RGPD, IA, Cloud) Bonnes pratiques de sécurité IA et Cloud Microsoft Normes de cybersécurité Cloud Capacité à gérer l’ambiguïté et l’incertitude Forte capacité rédactionnelle et analytique Approche agile orientée gestion des risques Compétences rares / expert Sécurité avancée Azure + Gen-IA DevSecOps appliqué aux projets IA Cloud Expertise approfondie sur les risques LLM Architecture sécurisée Azure / Microsoft pour l’IA Sécurisation avancée de Copilot / Microsoft 365
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- deduction loyer et contrat de mise à disposition
- Mes données de la CIPAV (trimestre, droit) ont disparues sur lassuranceretriate
- Micro-entreprise après EURL ?
- Ajout d'une deuxième activité en tant que micro-entrepreneur
- domiciliation et etablissement principal
- Compte Autoentrepreneur - Création ou modification
1195 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois