Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Mission freelance
Consultant sécurité - Expert SPLUNK
Vos missions principales : Déploiement et exploitation avancée de Splunk : Mise en place, configuration et optimisation de l’architecture Splunk (indexers, search heads, forwarders). Intégration de nouvelles sources de données, normalisation via CIM (Common Information Model), et gestion de la scalabilité et des performances. Création de règles de détection et automatisation : Conception et implémentation de règles de détection adaptées aux cas d’usage métiers ou de sécurité. Mise en œuvre de scheduled searches , alertes corrélées, adaptive response actions et drilldowns interactifs. Gestion des droits via RBA (Risk-Based Alerting) : Définition et application de modèles de Risk-Based Alerting pour une gestion fine des alertes selon le niveau de risque métier. Association de scores de risque à des entités pour prioriser les incidents et réduire le bruit d’alerte. Conception de dashboards dynamiques et pertinents : Création de tableaux de bord interactifs pour la visualisation temps réel ou historique des données. Utilisation des meilleures pratiques UX pour favoriser une lecture intuitive et efficace des indicateurs clés (KPI, KRI, etc.). Exploitation du Splunk Machine Learning Toolkit (MLTK) : Application de modèles prédictifs ou de détection d’anomalies à l’aide du MLTK. Développement de notebooks pour analyser les données, entraîner des modèles supervisés/non-supervisés, et déployer des alertes basées sur les résultats. Pilotage de projets de bout en bout : Suivi complet du cycle de vie des projets Splunk, de la phase de cadrage et collecte de besoins, à la mise en production et au support post-déploiement. Coordination avec les équipes métiers, sécurité, infrastructure, et développement.
Offre d'emploi
Data Scientist (H/F)
Nous recherchons un.e Data Scientist Sénior afin de contribuer à l’exploitation et à la valorisation des données stratégiques. Le rôle implique la mise en production de solutions data, l’industrialisation de traitements et le développement de modèles avancés pour répondre aux enjeux métiers. Vos futures responsabilités : Concevoir, développer et mettre en production des modèles de Machine Learning et d’analytique avancée Contribuer à l’industrialisation et à l’automatisation des traitements data à grande échelle Travailler sur des problématiques liées au domaine de l’énergie et de l’électricité Collaborer avec les équipes métiers et techniques pour transformer les données en leviers d’optimisation Garantir la qualité, la fiabilité et la performance des modèles déployés
Mission freelance
POT8602-Un Data scientiste sur Grenoble
Almatek recherche pour l'un de ses clients, un Data scientiste sur Grenoble. Missions: Concevoir, entrainer, déployer des modèles de ML, En environnement: Python, scikit Pytorch, SQL Databricks Expérience en feature engineering et ML Ops 3 ans d'expé en Data science Vont aller sur du DBT Cloud (hébergé sur leur cloud azure), pas le DBT core Aujourd’hui en Databricks Almatek recherche pour l'un de ses clients, un Data scientiste sur Grenoble. Missions: Concevoir, entrainer, déployer des modèles de ML, En environnement: Python, scikit Pytorch, SQL Databricks Expérience en feature engineering et ML Ops 3 ans d'expé en Data science Vont aller sur du DBT Cloud (hébergé sur leur cloud azure), pas le DBT core Aujourd’hui en Databricks
Offre d'emploi
Expert ELK
Un acteur majeur refond entièrement son architecture ELK et cherche un expert capable de piloter ce projet ambitieux. L’objectif ? Repenser l’architecture existante pour migrer vers la dernière version ELK, tout en optimisant et en consolidant l’ensemble des clusters, y compris une forte croissance des nœuds de Machine Learning. Ce que vous ferez : Repenser l’architecture ELK pour optimiser la performance et assurer une migration vers les dernières versions. Piloter et assurer l’intégration des nœuds de Machine Learning en pleine croissance. Participer activement aux décisions stratégiques tout en gardant les mains dans la technique. Résoudre des problématiques complexes d’un environnement distribué en production.
Offre d'emploi
Data Architect
Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps
Mission freelance
Data Engineer (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Les missions attendues par le Data Engineer (H/F) : En tant qu'Analytic Engineer, votre rôle principal sera d'apporter une expertise technique approfondie sur les données métiers et de garantir leur parfaite adéquation avec les besoins opérationnels. Vous travaillerez en étroite collaboration avec les différents acteurs de l'équipe Data – notamment les Data Analysts, les Techleads GCP et les équipes d'Exposition – sur les domaines suivants : la supply chain, le référencement produit, le B2C, le transport et la logistique. Parallèlement, vous assurerez une veille technologique proactive sur l'intelligence artificielle et les outils Data (par exemple, Tableau, Looker ML) afin de continuellement enrichir notre expertise technique et proposer des solutions innovantes."
Mission freelance
Administrer Devops plateforme Data Azure
Dans le cadre du renforcement d’une plateforme data critique hébergée sur Azure , vous interviendrez sur : L’amélioration et la maintenance de la Data Platform (Snowflake sur Azure comme socle principal) Le développement et la maintenance du code Terraform (IaC) L’automatisation des déploiements, tests et processus CI/CD (Azure DevOps) Le support quotidien aux équipes Data (Architecture, Engineering, Analytics, ML & IA) L’optimisation des performances et le suivi des coûts applicatifs La mise en place de solutions de monitoring et d’alerting L’accompagnement des équipes internes dans la conception et la faisabilité des cas d’usage
Mission freelance
Architecte d'entreprise - Expert
Contexte : Dans le cadre de sa stratégie de modernisation et d’innovation, le département Technologies & Innovation de notre client souhaite lancer une mission flash concernant l’architecture d’entreprise de la DSI. Cela s’inscrit dans un contexte de transformation accélérée du système d’information, marqué par : • La montée en puissance du cloud (hybride/multi-cloud) et des solutions SaaS ; • L’évolution des besoins métiers, nécessitant plus d’agilité, de rapidité de mise en œuvre et de time-to-market réduit ; • Une diversité d’applications et d’infrastructures générant complexité, redondances, dépendances et dette technique ; • L’émergence de nouvelles technologies (IA générative, API management, IoT, cybersécurité avancée, edge computing) et leur intégration dans les parcours métiers ; • Des enjeux réglementaires et de conformité (RGPD, NIS2, DORA, souveraineté numérique, IRN) qui imposent un haut niveau de maîtrise et de résilience. Cette mission flash vise à fournir à la DSI une vision factuelle, neutre et synthétique de sa situation, permettant d’orienter efficacement les futures décisions technologiques et d’innovation. Objectifs principaux : État des lieux de l’existant Utiliser les outils existants pour analyser l’architecture actuelle. Interroger les différents responsables de pôles (environ 15 entretiens). Analyser les briques communes, les dépendances, les technologies et leur pérennité. Évaluer le niveau de résilience et de sécurité. Définition de la cible et plan d’action Définir l’architecture cible pour l’avenir. Élaborer une feuille de route et un plan d’action détaillé. Formuler des recommandations : outils, normes, patterns d’architecture, gouvernance, comitologie, KPI, etc. Compétences : • Architecture d’entreprise : traduction des besoins métiers en besoins SI, veille technique & méthodologique, gouvernance (principes Togaf, Archimate, …) • Architecture applicative et technique : compréhension des patterns (microservices, SOA, API management, event-driven, cloud-native…). • Architecture data : gouvernance des données, MDM, BI/Big Data, data mesh, IA/ML, sécurité des données. • Architecture cloud et infrastructures : multi-cloud, hybrid cloud, containers (Kubernetes, Docker), virtualisation, réseaux et cybersécurité. • Technologies émergentes : IA générative, iagentique, blockchain • Conduite de la transformation : feuille de route SI, trajectoire cible, analyse de la valeur et des coûts. • Conformité et réglementation : RGPD, NIS2, DORA, souveraineté numérique, sécurité et résilience (IRN, ISO 27001) Profil recherché : Sénior, avec expériences significatives en architecture d’entreprise. Très bonne connaissance des bonnes pratiques et de l’état de l’art du domaine.
Mission freelance
Tech Lead / Architecte Data
Le Tech Lead sera responsable de la conception technique, du pilotage des équipes de développement et de la mise en œuvre des standards d’architecture au sein d’un centre de compétences digital. Livrables attendus : Architecture one-pager Data contracts ADRs / HLD Modèle sémantique & KPI tree Runbook / SLOs Modèle de coûts Missions principales : Collaborer avec les parties prenantes, les delivery leads et les product owners pour comprendre les besoins, identifier les points de douleur et prioriser les fonctionnalités à forte valeur ajoutée. Assurer le suivi régulier des progrès auprès du management, en présentant les jalons atteints, les difficultés rencontrées et les prochaines étapes. Garantir la qualité technique, la performance et la maintenabilité des solutions développées. Compétences techniques requises : Maîtrise des architectures cloud et du développement orienté API Connaissance des frameworks front-end (React, Angular, Vue.js) Maîtrise des technologies back-end (Node.js, Java Spring) Expérience avec les frameworks d’intégration (ESB, API Gateway, microservices) Pratiques DevOps : CI/CD, tests automatisés, conteneurisation, orchestration Connaissance des plateformes data (Snowflake, BigQuery) et des infrastructures AI/ML (atout)
Mission freelance
[MDO] Architecte d'entreprise - Expert - 1010
Contexte : Dans le cadre de sa stratégie de modernisation et d’innovation, le département Technologies & Innovation d'Action Logement souhaite lancer un mission flash concernant l’architecture d’entreprise de la DSI. Cela s’inscrit dans un contexte de transformation accélérée du système d’information, marqué par : • La montée en puissance du cloud (hybride/multi-cloud) et des solutions SaaS ; • L’évolution des besoins métiers, nécessitant plus d’agilité, de rapidité de mise en œuvre et de time-to-market réduit ; • Une diversité d’applications et d’infrastructures générant complexité, redondances, dépendances et dette technique ; • L’émergence de nouvelles technologies (IA générative, API management, IoT, cybersécurité avancée, edge computing) et leur intégration dans les parcours métiers ; • Des enjeux réglementaires et de conformité (RGPD, NIS2, DORA, souveraineté numérique, IRN) qui imposent un haut niveau de maîtrise et de résilience. Cette mission flash vise à fournir à la DSI une vision factuelle, neutre et synthétique de sa situation, permettant d’orienter efficacement les futures décisions technologiques et d’innovation. Objectifs principaux : État des lieux de l’existant Utiliser les outils existants pour analyser l’architecture actuelle. Interroger les différents responsables de pôles (environ 15 entretiens). Analyser les briques communes, les dépendances, les technologies et leur pérennité. Évaluer le niveau de résilience et de sécurité. Définition de la cible et plan d’action Définir l’architecture cible pour l’avenir. Élaborer une feuille de route et un plan d’action détaillé. Formuler des recommandations : outils, normes, patterns d’architecture, gouvernance, comitologie, KPI, etc. Compétences : • Architecture d’entreprise : traduction des besoins métiers en besoins SI, veille technique & méthodologique, gouvernance (principes Togaf, Archimate, …) • Architecture applicative et technique : compréhension des patterns (microservices, SOA, API management, event-driven, cloud-native…). • Architecture data : gouvernance des données, MDM, BI/Big Data, data mesh, IA/ML, sécurité des données. • Architecture cloud et infrastructures : multi-cloud, hybrid cloud, containers (Kubernetes, Docker), virtualisation, réseaux et cybersécurité. • Technologies émergentes : IA générative, iagentique, blockchain • Conduite de la transformation : feuille de route SI, trajectoire cible, analyse de la valeur et des coûts. • Conformité et réglementation : RGPD, NIS2, DORA, souveraineté numérique, sécurité et résilience (IRN, ISO 27001) Profil recherché : Sénior, avec expériences significatives en architecture d’entreprise. Très bonne connaissance des bonnes pratiques et de l’état de l’art du domaine.
Mission freelance
Product Owner Data / IA / RPA – Valorisation de la Donnée
Dans le cadre de sa stratégie de transformation 2025–2026 , notre client souhaite renforcer son dispositif autour de la valorisation de la donnée et de l’ industrialisation des cas d’usage Data, IA et RPA . L’objectif est d’accompagner l’équipe de développement DATA dans la structuration, la priorisation et la livraison de produits à forte valeur ajoutée, tout en garantissant leur alignement avec les besoins métiers. Rattaché(e) au manager de l’équipe Data , vous jouerez un rôle clé de pivot entre les métiers et les équipes techniques , de la détection des opportunités jusqu’à la mise en production. Vous serez garant(e) de la valeur métier et de l’ impact opérationnel des solutions développées. MISSIONS PRINCIPALES Pilotage et valorisation des initiatives Data / IA / RPA • Identifier, cadrer et prioriser les cas d’usage Data, IA, RPA et MLOps en lien avec les directions métiers. • Challenger les besoins exprimés et accompagner les métiers dans la définition de la valeur ajoutée (quantitative, qualitative, expérience collaborateur). • Animer les comités Data & Innovation et coordonner les différentes parties prenantes (métiers, IT, data scientists, développeurs). • Porter les sujets d’innovation à fort impact métier : automatisation, intelligence artificielle, machine learning. • Aider à la rédaction des études de solution et à la formalisation des modèles opérationnels . Suivi de la structuration et de la livraison des produits • Prioriser les développements au sein des squads en fonction de la valeur business. • Suivre la conception, le développement et la livraison des produits Data. • Contribuer à l’ amélioration continue des pratiques et au modèle opérationnel de l’équipe Data. • Mesurer les résultats et assurer le reporting de la valeur produite . LIVRABLES ATTENDUS • Animation et comptes rendus de comités Data / IA / RPA. • Cadrage et documentation des cas d’usage Data et IA. • Études de solution détaillées et modélisation des processus opérationnels. • Plans d’action et priorisation des initiatives. • Reporting de la valeur métier générée (KPI de performance et d’impact).
Mission freelance
[MDO] AMOA - Expert IT Fonctionnel / IA (+15XP)
Pour répondre aux défis de l'innovation et de la sécurité, a été créé le département, chargé de libérer le plein potentiel de l'Intelligence Artificielle pour le Groupe. Le Département est composé de six équipes : Innovation Exposition, Innovation Factory, APEX, Smart Auto Factory, Data Analytics and Management Platforms et le Centre de Compétence en IA. Ce dernier est chargé de développer et de maintenir les compétences en Intelligence Artificielle au sein du département. Il recherche un consultant expert pour appuyer l'AICC dans la définition et le pilotage de son plan projet : diagnostic de l'existant, la définition de la feuille de route ou du plan projet (comitologie, besoins et livrables) nécessaires au pilotage des opérations sur le périmètre des activités de l'AICC . Mission: diagnostic de l'existant, définition de la feuille de route et du plan projet (comitologie, besoins et livrables) nécessaires au pilotage des opérations sur le périmètre des activités de l'AICC. Tâches et responsabilités : Collecter et analyser les besoins IA des différentes entités Métiers du Groupe BNPP Apporter une connaissance technique et/ou fonctionnelle des spécificités des applications, environnements et processus Construire l'architecture fonctionnelle ou technique adaptée aux besoins identifiés Proposer des solutions innovantes en réponse à des problématiques précises Maîtriser les aspects fonctionnels métiers complexes pour garantir la pertinence des trajectoires IA Collaborer avec les équipes de l'AICC pour construire les trajectoires et le plan projet Compétences attendues : Maîtrise des technologies et concepts liés à l'intelligence artificielle Connaissance approfondie des architectures fonctionnelles et techniques Expérience dans la conduite de projets IA en environnement complexe Capacité à identifier et proposer des solutions innovantes Compétences en modélisation et formalisation des besoins Livrables : Cartographie des besoins IA des Métiers Documentation des architectures fonctionnelles ou techniques proposées Plan projet détaillé avec trajectoires IA Recommandations sur les solutions IA à mettre en œuvre Rapports d'analyse et de synthèse des besoins et des solutions Le consultant devra démontrer une maîtrise des technologies suivantes, en lien avec les travaux de l’AICC : Fondamentaux IA / Machine Learning Machine Learning et Deep Learning Architectures de modèles LLM (transformers, fine-tuning, Retrieval-Augmented Generation - RAG) Expérience avec des solutions de type RAGaaS, LLMaaS, AgentaaS Outils et plateformes : HuggingFace, LangChain, MLFlow Docker, Git, Streamlit Domino Data Lab (pour le déploiement et les tests utilisateurs) CI/CD pour les pipelines de modèles Monitoring et versioning des modèles
Mission freelance
DBA Snowflake
Bonjour, Pour l'un de mes grands comptes parisiens, je suis à la recherche urgente d'un DBA Snowflake. L’équipe Architecture & Data Engineering de la Direction DATECH est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data, Science & IA, CRM, Pub etc .. La mission : Au quotidien, vous menez les travaux de définition et de revue d’architecture de la Data Warehouse/Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions sont : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Vous intervenez sur la conception de l’ensemble des travaux relatifs aux données du Groupe. Vous accompagnez également nos équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien notre démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur & d’expert Snowflake entre les équipes Data (AdTech, Product Owners, Data Analysts et opérationnels) du Groupe.
Mission freelance
Ingénieur IA & Sécurité
CONTEXTE Métiers Fonctions : ML ops, Ingénieur Spécialités technologiques : Intelligence artificielle,AI,Monitoring,IA generative, Open Source Cette mission s’inscrit dans le cadre d’un programme d’ingénierie et de sécurisation des systèmes d’intelligence artificielle générative et agentique. L’objectif est de tester, évaluer et intégrer des garde-fous (“AI guardrails”) destinés à renforcer la fiabilité, la conformité et la sécurité des modèles de langage (LLMs) et des agents IA. Le poste s’adresse à un profil confirmé (jusqu’à 6 ans d’expérience) en ingénierie IA, sécurité des modèles et MLOps, capable d’évoluer dans un environnement international et collaboratif, à la croisée de la technique, de la recherche et de la gouvernance IA. MISSIONS Responsabilités principales 1. Évaluation et tests de solutions de garde-fous IA - Identifier et évaluer des solutions de sécurité pour modèles LLM et applications agentiques (open source et commerciales). - Mettre en place un framework de test automatisé pour mesurer la performance, la latence et la robustesse des garde-fous. - Concevoir et exécuter des scénarios d’attaques adversariaux (prompt injection, exfiltration de données, jailbreaks, contournement de filtres). - Analyser les résultats des tests et produire des rapports d’évaluation détaillés : précision, compatibilité, facilité d’intégration. - Assurer le monitoring des performances et de la gestion mémoire des modèles testés. 2. Intégration et industrialisation dans les environnements IA - Concevoir des blueprints d’intégration pour incorporer les garde-fous dans les pipelines IA et stacks MLOps existants. - Travailler à l’intégration de ces solutions dans les workflows LLM, RAG et agentiques, en s’appuyant sur les plateformes cloud (Azure, AWS, GCP). - Collaborer avec les équipes de sécurité, de conformité et d’ingénierie pour définir des indicateurs de sécurité mesurables et des seuils de tolérance. - Garantir la compatibilité des solutions avec les frameworks et technologies Asiatech AI. - Contribuer à la documentation et à la mise en œuvre de pratiques d’IA responsable conformes aux standards européens (AI Act, NIST, ISO). 3. Partage de connaissances et support transverse - Animer des ateliers internes et sessions de sensibilisation à la sécurité des modèles IA. - Contribuer à la rédaction de livrables techniques et whitepapers sur la sécurisation des systèmes génératifs. - Assurer un rôle de référent technique sur les pratiques de test et d’évaluation de la robustesse des LLMs. - Favoriser la diffusion des bonnes pratiques au sein des équipes Data, ML et Sécurité. Livrables attendus - Framework de test des garde-fous IA : outils automatisés de simulation d’attaques et de mesure de robustesse. - Rapports d’évaluation technique : performance, latence, complexité d’intégration, fiabilité. - Plans d’intégration (blueprints) : architectures de référence et bonnes pratiques d’implémentation dans les workflows LLM/RAG. Documents de partage de connaissances : ateliers, documentation interne et publications techniques Expertise souhaitée - Très bonne compréhension des architectures LLM (GPT, Claude, Mistral, etc.) et des frameworks d’orchestration d’agents. - Solide expérience en sécurité des IA : garde-fous, filtrage de contenu, validation de prompts, détection d’exfiltration de données. - Maîtrise des langages et outils : Python, Docker, CI/CD, monitoring, gestion de la mémoire, et services cloud IA (Azure, AWS, GCP). - Expérience confirmée en tests adversariaux, évaluation de modèles et simulation d’attaques. - Bonne compréhension des pratiques MLOps et des environnements d’industrialisation IA. - Connaissance des cadres de gouvernance IA et des principes de Responsible AI (AI Act, NIST, ISO 42001). -Rigueur scientifique et approche expérimentale des problématiques IA. - Capacité à collaborer efficacement avec des équipes techniques, sécurité et conformité. - Excellente communication écrite et orale, en anglais et en français. - Autonomie, esprit analytique et goût pour l’innovation. Profil recherché - Ingénieur ou expert IA confirmé (jusqu’à 6 ans d’expérience), spécialisé en sécurité des modèles, MLOps ou IA générative. - Expérience dans l’évaluation et le test de systèmes GenAI ou agentiques. - Bonne compréhension des environnements cloud et de la gestion opérationnelle des pipelines IA. - Capacité à intervenir sur des sujets mêlant R&D, sécurité, et gouvernance technologique.
Mission freelance
Consultant Splunk Senior – GSOC
ANGLAIS COURANT Obligatoire car équipe anglophone Contexte de la mission La mission s’inscrit au sein du Global Security Operations Center (GSOC) d’un grand groupe international, dans l’équipe Détection et Automatisation . Le consultant interviendra sur la gestion et l’optimisation de la plateforme Splunk (environ 8 To de données traitées par jour), cœur du dispositif de supervision et de réponse aux incidents de cybersécurité. Il collaborera étroitement avec les équipes CERT , MSSP et SOC afin d’améliorer la visibilité, l’automatisation et la résilience du système de surveillance globale. Une astreinte tournante (1 semaine par mois) est prévue afin d’assurer la continuité opérationnelle du service 24/7. Objectifs de la mission Garantir la stabilité, la disponibilité et les performances du socle Splunk Enterprise et des modules associés. Renforcer l’efficacité de la détection des menaces et de la réponse aux incidents. Automatiser les processus d’intégration et d’analyse des données pour réduire le temps de traitement. Standardiser les workflows et la documentation technique dans un contexte international. Périmètre d’intervention Le consultant contribuera à l’ensemble du cycle de vie de la plateforme Splunk, de l’administration quotidienne à l’évolution des cas d’usage sécurité : Administration fonctionnelle et technique de l’environnement Splunk (Enterprise Security, ITSI, Cloud, SC4S). Gestion des accès, des applications et de la conformité des données. Intégration et ingestion des logs provenant de diverses sources internes et externes. Surveillance de la cohérence et de la fiabilité des flux de données. Conception et industrialisation de tableaux de bord et rapports analytiques. Diagnostic et remédiation en cas d’incident de collecte ou de performance. Participation active aux initiatives d’amélioration de la détection et de l’investigation. Automatisation des procédures répétitives et création de scripts Python. Rédaction ou mise à jour de la documentation technique, des procédures et manuels d’exploitation. Développement et déploiement d’algorithmes de machine learning pour renforcer les capacités d’analyse. Contribution aux projets de migration ou d’évolution de l’infrastructure Splunk et des systèmes connectés. Participation aux communautés internes de sécurité et partage de bonnes pratiques. Profil recherché Minimum 4 ans d’expérience en gestion d’environnements Splunk en production. Maîtrise avancée de l’ingestion de données, de la mise en place de règles de détection et de la configuration des outils Splunk ES, ITSI et SC4S. Expertise en automatisation via Python (développement de scripts, intégration d’API, workflows). Connaissance des processus SOC et des bonnes pratiques de supervision de la cybersécurité. Aisance dans un environnement international : maîtrise du français et de l’anglais . Expérience des outils ITSM et de la gestion des SLA. Niveaux de compétences attendus NiveauDescription 3 – AvancéPlus de 5 ans d’expérience. Capable de définir et implémenter des configurations avancées, de résoudre des incidents complexes, d’interagir avec le support éditeur et de réaliser des mises à niveau majeures.2 – Confirmé3 à 5 ans d’expérience. Maîtrise des configurations complexes, diagnostic en profondeur, mise à jour des environnements et documentation technique.1 – Junior1 à 2 ans d’expérience. Capacité à exécuter des configurations standards et à gérer les incidents de premier niveau. Livrables attendus Tableaux de bord, rapports et métriques de performance Splunk. Règles de détection et cas d’usage cybersécurité améliorés ou créés. Scripts d’automatisation et documentation associée. Plan de maintenance et rapports d’incidents. Documentation technique complète (procédures d’administration, manuels utilisateurs). Modalités de la mission Lieu : Global Security Operations Center (possibilité de télétravail partiel selon accord) Durée : Mission longue (renouvelable) Langues de travail : Français / Anglais Astreinte : Rotation mensuelle (1 semaine sur 6) Démarrage souhaité : Dès que possible
Mission freelance
Data Scientist / Ingénieur IA
CONTEXTE : Experience : 6 ans et plus Métiers Fonctions : Data Management,Data Scientist Spécialités technologiques : Machine learning, IA generative, NLP Compétences Technologies et Outils Python Soft skills Autonomie MISSIONS Objectifs et Enjeux : Le département de notre client est organisé autour de l'acquisition et de la gestion des données des profils des candidats et du rapprochement avec les offres et a besoin de se renforcer avec un profil d’ingénieur IA. Au sein de l'équipe, vous interviendrez sur un domaine de données stratégiques (fiches de compétences et rapprochement candidats / offres). Vous travaillerez en lien étroit avec l’architecte et les experts data, les métiers de l'emploi et du recrutement, ainsi qu'avec les équipes techniques gérant les systèmes existants Votre rôle sera de concevoir, expérimenter et intégrer des solutions d'IA et d'IA génératives permettant de mieux exploiter les données métiers et d'améliorer les capacités de matching. Vous jouerez un rôle clé dans cette dynamique, en prenant en charge la structuration des flux, l'optimisation des performances. Vous devrez allier expertise technique et compréhension des enjeux métiers pour garantir la qualité, la cohérence et la disponibilité des données. Appuyé par les standards et les outils mis à disposition par les équipes data transverses, vous allez travailler en forte autonomie sur les projets qui vous seront confiés. Cette mission s'inscrit dans une ambition stratégique, au coeur de la transformation data de l'organisation. Activités à réaliser : - Concevoir et mettre en oeuvre des algorithmes de traitement du langage naturel (NLP) et de machine learning pour analyser et rapprocher des objets métiers (exemple : des offres d'emploi, des fiches de compétences). - Développer des pipelines de données pour extraire, préparer et vectoriser les informations (intitulés, codes, compétences, savoir-faire, savoirs, savoir-être.). - Expérimenter et comparer différentes approches de similarité sémantique (embeddings, distances, modèles supervisés). - Mettre en place des algorithmes de classification d’objets métier tels que les fiches afin d’en décliner des matrices d’affinités utiles pour le SDR. - Travailler en intégration avec les briques IA/GenAI déjà présentes en interne (LLMs, bases vectorielles, frameworks IA). - Assurer la qualité, la traçabilité et la robustesse des développements IA (tests, documentation, reproductibilité). - Collaborer avec les équipes métiers pour définir les critères de succès et valider la pertinence des résultats. - Préparer et présenter les résultats des expérimentations lors des phases de POC et de déploiement. Expertise souhaitée A minima 6 ans dans des projets IA/NLP, idéalement dans un contexte de matching, recherche d’information, RH/emploi. Compétences requises : - Expertise en Algorithmique - Expertise en Python - Bonne maitrise des modèles d'IA Générative
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.