Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning
Ce qu’il faut savoir sur Machine Learning
Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.
            Mission freelance
            
        Consultant (H/F) Senior Devops AWS/GCP- Expert Dynatrace
      
 Dans le cadre d’un projet international de longue durée, nous recherchons un ingénieur DevOps spécialisé sur les environnements AWS / GCP , avec une expertise confirmée sur Dynatrace . Le consultant interviendra sur la conception et la mise en œuvre de solutions complètes de supervision et d’observabilité, l’optimisation des systèmes de monitoring, et l’intégration de technologies basées sur l’IA et le Machine Learning pour l’automatisation. Le rôle inclut la personnalisation et la gestion d’outils tels que Dynatrace, SolarWinds, OpenTelemetry, Prometheus et Grafana .
 
            Offre d'emploi
            
        Analyste SOC_SPLUNK
      
 Vos missions Au sein de l’équipe CyberSOC de notre client, vous serez en charge d’analyser, investiguer et traiter les incidents de sécurité. Vous serez chargé (e ) de fournir et appliquer des plans de remédiation, de contribuer à l’amélioration continue et à l’optimisation des outils, règles de détection et scripts d’automatisation. Vous participerez à la mise en place de projets innovants sur Splunk (RBA, Machine Learning ToolKit) afin d’optimiser la couverture de détection. Le/la consultant (e ) assurera une veille sur les menaces et vulnérabilités, participera au partage de renseignements fiables et contextualisés, exécutera des activités régulières de « Threat Hunting » et développera de nouvelles hypothèses de recherche. Vous produirez des rapports réguliers sur vos activités et maintiendrez les bases de connaissances (Confluence, Git, SharePoint). Tâches à réaliser : - Analyse, investigation et traitement des incidents de sécurité - Fourniture et application de plans de remédiation - Amélioration continue et opmisation des outils, règles de détection et scripting pour automatisa tion - Participation et/ou mise en place de projets innovants sur Splunk (RBA, Machine Learning ToolKit) - Veille sur les menaces et vulnérabilités, partage de renseignements fiables et contextualisés Exécution de « Threat Hunting » régulier, développement et documentation de nouvelles hypothèses de recherche Produc on de rapports réguliers sur les activités Main en des bases de connaissances (Confluence, Git, SharePoint) Avantages & Perspectives · Démarrage dès que possible · Mission de longue durée · Lieu : île de France · Rémunération : package global +/- 55 K selon profil (Politique d’intéressement en place depuis 2015)
            Mission freelance
            
        Data Engineer confirmé
      
 Hello, Pour le compte de l'un de mes clients parisiens dans le secteur de la sous traitance de services, je suis à la recherche d'un data engineer confirmé. Expériences et/ou skills mandatory : - Expérience en Data Engineering/Data Modelling (Pipelines + structuration Bases de données). -Expérience sur Azure + DataBricks (DB nice to have). -A déjà travaillé sur un ou plusieurs Use Cases Machine Learning et/ou IA (ou bonnes notions/compréhension). -Bon communicant (car proche du business),
            Mission freelance
            
        Ingénieur IA / MLOps Senior
      
 Nous recherchons un Ingénieur IA / ML Ops senior pour renforcer notre équipe IT Data & IA en charge des projets Data & IA stratégiques d'un grand groupe international. 📍 Localisation : Saint Quentin en Yvelines / 2J de TT 📅 Démarrage : ASAP ⏳ Durée : Longue mission ✅Piloter le portefeuille de cas d’usage IA (ML, deep learning, IA générative, agentique) ✅Être le référent IA auprès des chefs de projet, architectes, métiers et partenaires ✅Mettre en place les bonnes pratiques de Feature Engineering, validation des données & QA ✅Challenger les modèles et garantir leur robustesse, explicabilité et conformité (IA Act, RGPD) ✅Définir et appliquer le cadre ML Ops du groupe (CI/CD, versioning, monitoring, reproductibilité) ✅Concevoir et implémenter des architectures IA modulaires et industrialisables ✅Auditer, valider et documenter les modèles / cas d’usage avant mise en production ✅Encadrer et accompagner les juniors, diffuser les bonnes pratiques et vulgariser auprès des métiers ✅Assurer une veille technologique active et anticiper les évolutions réglementaires
            Mission freelance
            
        [TPR] Data Scientist / Data Engineer - EXPERT Minimum 10 XP - 941
      
 Contexte et objectifs de la mission : Le client recherche un Data Scientist / Data Engineer confirmé disposant d’une expérience éprouvée en Data Science, en Large Language Models (LLMs) et dans l’utilisation avancée de LangChain et LangGraph. Le candidat participera à la conception, l’optimisation et l’industrialisation de solutions d’intelligence artificielle sur une stack Azure Fabric, Docker et App Container Services, incluant des modèles multimodaux et de Computer vision. Missions : • Concevoir, entraîner et déployer des modèles prédictifs et explicatifs (Machine Learning, Deep Learning). • Développer et maintenir des pipelines de données performants sur Azure Fabric. • Conteneuriser et orchestrer les modèles via Docker et App Container Services. • Implémenter et automatiser des workflows complexes via n8n. • Intégrer et exploiter des LLMs (fine-tuning, RAG, GraphRAG) dans des environnements de production. • Développer des solutions avancées à l’aide de LangChain et LangGraph pour la création d’agents intelligents et d’applications IA. • Mettre en œuvre des modèles multimodaux (texte, image, audio, vidéo) et de computer vision. • Concevoir des interfaces de visualisation et d’interaction via Streamlit. • Exploiter des LLMs Azure OpenAI et des modèles open source (Mistral, Llama, etc.) via Hugging Face. • Garantir la qualité, la robustesse et la documentation du code et des modèles. Compétences essentielles et expérience • Automatisation & Orchestration : n8n • LLMs & IA Générative : fine-tuning, RAG, GraphRAG, LangChain, LangGraph, modèles multimodaux, Azure OpenAI, Hugging Face, LLMs open source • Machine Learning / Deep Learning : Régression linéaire et non linéaire, Random Forest, XGBoost, Gradient Boosting, CNN, RNN, Transformers, Computer Vision • Cloud & Conteneurisation : Azure Fabric, Docker, App Container Services • Langages : Python, SQL • Frameworks & Outils : Streamlit, FastAPI, scikit-learn, PyTorch, TensorFlow Profil recherché • Bac+5 (Master / Ingénieur) en Data Science • Minimum 5 ans d’expérience en Data Science et Data Engineering. • Expérience éprouvée dans la mise en production de LLMs et l’usage de LangChain / LangGraph. • Bonne maîtrise des LLMs open source et Azure OpenAI via Hugging Face. • Solides compétences en modélisation prédictive, automatisation et industrialisation de modèles IA. • Esprit analytique, rigueur et autonomie.
            Offre d'emploi
            
        Data Scientist
      
 Contexte de la mission Projets innovants depuis la R&D jusqu’au packaging pour industrialisation de modèles de ML appliquées aux problématiques de maîtrise de la charge de sinistres, de lutte anti-fraude et de maîtrise des risques climatiques. Un environnement de travail dans le DataLab Groupe sous Databricks et données puisées dans le DataLake Groupe et mises à disposition dans le DataLab. Objectifs et livrables Objet de la mission Le portefeuille projets de l’équipe est constitué de plusieurs projets de Data Science sur les sujets suivants : - Lutte contre la fraude - Analyse et réaction post-event sinistres, en particulier sur les périls climatiques - Prévention des sinistres graves Le consultant sera responsable de la cohérence technique des développements sur les projets de Data Science de l'équipe, du cadrage au déploiement en production. Principaux volets de la mission : - Superviser techniquement les travaux des Data Scientist junior et stagiaires de l'équipe (cadrage technique, challenge et optimisation du code, méthodologie modélisation) - Être le référent technique de l'équipe concernant les travaux d'industrialisation des modèles effectués par l'IT de L'organisation, en challengeant notamment leurs approches - Contribuer ponctuellement sur quelques projets de Data Science - Rédiger et/ou superviser la documentation en conformité avec les normes et standards de l'équipe - Proposer des nouveaux outils, méthodes pour faire monter en compétence l'équipe - Apporter un œil nouveau dans l'amélioration continue des modèles développés par l'équipe (utilisation de données non structurées, données externes…) En fonction des projets, les travaux vont du cadrage des sujets, préparation des bases de données, engineering des features, écritures et tuning des modèles de ML, préparation à l’industrialisation sous forme de projets.
 
            Mission freelance
            
        Un Chef de Projet Data & BI / PO à MER (près d'Orléans)
      
 Almatek recherche pour l'un de ses clients, Un Chef de Projet Data & BI / PO à MER (près d'Orléans).. Description du poste : Projet d'extension des données du SI Décisionnel Ce projet agile vise à faciliter l’accès aux données pour les utilisateurs métier et les clients. Le prestataire jouera le rôle de Product Owner pour le produit « Data » : gestion du Backlog, collaboration étroite avec le Scrum Master, l’équipe de développement du service Modélisation des Données, les équipes IT, et les métiers. Projet de nouvelle stratégie d’alimentation du Datawarehouse Finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique. Autres projets Mise en place de solutions IA, finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique, mise en place d’un SI Décisionnel RH, et d'autres projets à initier en 2026. Mission : Piloter les projets sur les aspects suivants : - Organisationnels : planning, comitologie, suivi budgétaire, suivi de recette - Techniques : cartographie réseau, flux, analyse de risque, etc. - Relationnels : collaboration avec les équipes IT (Architectes, Réseau, RSI, etc.), les métiers, le CISO, etc. - Maitrise des risques : implique une grande rigueur dans le suivi des actions, des plannings et des budgets Profil : - Spécialiste de la gestion de projets techniques orientés Data, avec un minimum de 3 années d’expérience - Expérience des méthodologies Agile (Kanban, Scrum) en tant que Product Owner - Grande rigueur dans le suivi des actions projet - Expérience de la relation Infogérant / infogéré - Connaissance des sujets Data Science (ML, développement Python, IA générative) - Connaissance du fonctionnement des bases de données (Relationnelles, Cluster, Stockage S3) - Connaissance des infrastructures Cloud, des outils associés aux projets mentionnés ci-dessus, et de Power BI
            Offre d'emploi
            
        Data Scientist Assurance 
      
 Dans le cadre d’un projet stratégique pour un grand acteur de l’assurance, nous renforçons notre équipe Data au sein du DataLab Groupe . Vous interviendrez sur des projets innovants de Data Science, de la R&D jusqu’à l’ industrialisation de modèles ML , avec un fort impact métier sur la lutte anti-fraude, la maîtrise des risques climatiques et la prévention des sinistres graves. Profil recherché 5+ ans d’expérience en Data Science , avec projets menés jusqu’à l’industrialisation. Forte capacité à encadrer, challenger et vulgariser auprès des équipes. Expérience en conduite du changement et interaction avec des utilisateurs métiers. Une curiosité et une veille active sur les nouvelles approches ML/IA.
 
            Offre d'emploi
            
        Data Engineer IA
      
 En tant que Data IA Engineer au sein de notre équipe Data Intégration, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions avancées d'intelligence artificielle et de data science. Votre mission principale sera de contribuer à l'amélioration continue et à l'innovation de nos plateformes digitales. 1.1. CONTENU DE LA MISSION OU DES LIVRABLES En tant que Data IA Engineer, vous serez responsable de la conception, du développement et de l'intégration de solutions complètes enrichies par des algorithmes d'intelligence artificielle. Vous jouerez un rôle crucial dans la création de services backend robustes et performants, en utilisant Python et FastAPI pour traiter et analyser des données complexes. Responsabilités : -Concevoir et développer des services backend en Python et FastAPI, intégrant des techniques avancées de machine learning et de traitement de données massives. -Gérer et optimiser des bases de données telles que MongoDB, Elasticsearch, ainsi que des systèmes SQL et NoSQL pour assurer un stockage et une analyse efficaces des données. -Mettre en œuvre des méthodologies de CI/CD en utilisant Docker et GitLab CI, avec un fort accent sur l'automatisation des workflows de data science pour garantir une intégration et une livraison continues fluides. -Collaborer avec les équipes de développement pour intégrer des modèles d'IA dans les applications, en assurant leur performance et leur scalabilité. -(Optionnel) Développer des interfaces utilisateur interactives en utilisant React et Next.js, permettant une interaction fluide avec les modèles d'IA. 1.2. SPECIFICITE DE LA MISSION Diplôme en informatique, data science, ingénierie ou domaine connexe. Data IA engineer avec maîtrise de Python, FastAPI, MongoDB, Elasticsearch, SQL, NoSQL, Docker, Airflow, Snowflake et Gitlab CI. Des capacités en React et Next.js sont un plus
 
            Offre d'emploi
            
        Senior AI Engineer
      
 Je recherche pour un de mes clients, un TechLead AI : Missions principales : • Accompagner les AI / ML Engineers de l’équipe sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien. • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance. • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale. • Participer aux analyses, études d’impacts et cadrage techniques. • Concevoir des solutions industrialisées en respectant les bonnes pratiques d’architecture AI / ML et développement. • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe. • Réaliser le développement de nouveaux produits IA et assurer la maintenance évolutive et corrective des produits existants • Rédiger la documentation technique • Assurer un support aux testeurs • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impacts techniques • Faire des propositions techniques • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements Compétences techniques : • Langages de programmation : Python, SQL • Utilisation de plateformes pour le développement et le déploiement des modèles d’IA : Docker, Kubernetes, Helm • Maitrise des frameworks de developpement d'application IA: Langgraph, ADK, Hugging Face, Guardrails, FastAPI • Maitrise des services data et IA de GCP : GCP BigQuery, VertexAI, Cloud storage, GKE • Maitrise des enjeux de securité liés au déploiement de modèles d'IA générative. • Maîtrise du déploiement et de la mise en production des modèles LLM open source. • Maitrise des plateformes d’IA Gen, de leur installation à l’opération des modèles • Maitrise des bases de données vectorielles : PGVector
 
            Offre d'emploi
            
        Architect Data (H/F)
      
 La mission consiste à assurer la responsabilité de l’architecture de bout en bout des solutions data et analytiques. L’architecte devra concevoir et piloter des solutions sécurisées, évolutives et optimisées en coûts, en s’appuyant sur la plateforme de données de l’entreprise (entrepôt de données, lakehouse, streaming, ML, environnements cloud et on-premise). L’objectif est de garantir la cohérence de l’architecture, la gouvernance des données et la performance des usages analytiques et métiers. Activités principales • Définir et maintenir l’architecture data couvrant ingestion batch/stream, entrepôt de données (modèles Kimball/Star), lakehouse (Iceberg/Trino) et exposition via SQL, API ou couche sémantique. • Concevoir les modèles conceptuels, logiques et physiques (partitionnement, clustering, indexation). • Encadrer la mise en place de la couche sémantique et des métriques, assurer la gouvernance des KPI, optimiser les performances des requêtes et tableaux de bord, favoriser l’auto-consommation via dbt/metrics layer et catalogues. • Mettre en place les pratiques d’observabilité, runbooks, SLOs, backfills, ainsi que l’optimisation coûts/performance (FinOps). • Définir les standards de gouvernance : métadonnées, documentation, data contracts, blueprints, architecture decision records (ADR). • Contribuer à la définition et à la priorisation des besoins métiers en lien avec les Product Owners, Delivery Leads et parties prenantes. • Fournir des rapports réguliers sur l’avancement, les jalons atteints et les difficultés rencontrées. Livrables attendus • Architecture one-pager, modèles sémantiques et KPI tree. • Data contracts, ADRs/HLD. • Runbooks, SLOs, modèles de coûts. • Documentation technique et fonctionnelle.
            Mission freelance
            
        Consultant Cybersécurité – Expert Splunk (Global Security Operations Center – GSOC)
      
 Contexte de la mission La mission s’inscrit au sein d’un Global Security Operations Center (GSOC), plus précisément dans l’équipe Détection & Automatisation. Le consultant jouera un rôle clé dans la gestion et l’optimisation d’une plateforme Splunk (environ 8 To de données par jour) utilisée pour la surveillance cybersécurité et la réponse aux incidents. Il collaborera étroitement avec les équipes CERT, MSSP et analystes SOC afin de renforcer la supervision, l’automatisation et la fiabilité de l’environnement de cybersécurité. En raison des activités 24h/24 et 7j/7 du GSOC, le poste inclut une astreinte tournante (1 semaine par mois). Objectifs et livrables Missions principales : Administrer et gérer les accès utilisateurs au sein de la plateforme Splunk. Assurer la maintenance régulière et la stabilité de la plateforme. Concevoir et générer des rapports et tableaux de bord pour les besoins opérationnels et de sécurité. Gérer les flux d’ingestion de données et superviser l’intégration des sources de logs et équipements dans Splunk. Garantir la qualité, la cohérence et la fiabilité des données collectées. Restaurer la collecte de logs en cas de perte ou d’interruption. Communiquer efficacement avec les équipes internes et clients externes, en français et en anglais. Contribuer à l’extension et à l’évolution de la couverture de détection. Participer à l’automatisation des processus d’intégration et de contrôle qualité des données. Rédiger des documentations techniques et guides utilisateurs. Participer à l’astreinte mutualisée (équipe de 6 personnes) pour Splunk et outils associés. Accompagner les projets de migration et de transformation liés à Splunk ou aux systèmes de collecte. Développer et déployer des algorithmes de machine learning pour améliorer les capacités d’analyse et de détection. Contribuer à la création de règles de détection cybersécurité et à la mise en œuvre de cas d’usage. Proposer des améliorations continues des outils, procédures et processus de réponse aux incidents. Construire des tableaux de bord et définir des indicateurs de performance (KPI) de sécurité. Participer activement aux communautés internes de sécurité et partager les bonnes pratiques.
            Offre d'emploi
            
        Analyste SOC Splunk 
      
 Démarrage : Dès que possible Contexte et environnement Au sein du CyberSOC d’un grand groupe, vous intégrerez une équipe d’experts dédiée à la supervision, la détection et la réponse aux incidents de sécurité. Dans un contexte de forte montée en puissance des menaces et d’évolution constante des technologies, l’objectif est d’assurer une surveillance proactive et une amélioration continue des dispositifs de sécurité, en s’appuyant sur des outils et des méthodologies à la pointe de la cybersécurité. Vous interviendrez dans un environnement exigeant, orienté vers la performance, la réactivité et l’innovation , au sein d’une cellule où la collaboration et le partage des connaissances sont au cœur des pratiques quotidiennes. Missions principales Rattaché(e) au responsable du CyberSOC, vous participerez activement à la détection, l’investigation et la résolution d’incidents de sécurité, tout en contribuant à l’amélioration des processus et des outils de surveillance. Vos principales missions incluront : Analyse et traitement des incidents de sécurité : Surveiller en temps réel les alertes issues des outils de supervision (Splunk, SIEM, EDR, IDS/IPS, etc.). Identifier, qualifier et prioriser les incidents selon leur niveau de criticité. Réaliser des investigations approfondies sur les événements suspects à l’aide de Splunk et d’autres outils d’analyse. Proposer et mettre en œuvre des mesures correctives ou préventives pour réduire les risques de récurrence. Optimisation et automatisation : Améliorer en continu les règles de détection et les corrélations dans Splunk. Développer des tableaux de bord, rapports et alertes adaptés aux besoins opérationnels et stratégiques. Contribuer à des projets d’innovation autour de Splunk Enterprise Security , du Risk-Based Alerting (RBA) et du Machine Learning Toolkit (MLTK) pour renforcer la pertinence des détections et automatiser certaines tâches répétitives. Threat Hunting et veille de sécurité : Mener des campagnes de threat hunting afin d’identifier les menaces avancées non détectées par les systèmes automatiques. Exploiter les indicateurs de compromission (IoC) issus de différentes sources pour enrichir les scénarios de détection. Effectuer une veille active sur les nouvelles vulnérabilités, techniques d’attaque et outils défensifs. Documentation et capitalisation : Alimenter les bases de connaissances internes via Confluence, Git ou SharePoint . Rédiger des rapports d’incidents détaillés et des comptes rendus d’investigation. Participer à la mise à jour des procédures et à la formalisation des bonnes pratiques SOC.
 
            Mission freelance
            
        Ingénieur en IA Générative (H/F)
      
 Mission principale Accompagner les clients dans la conception, le développement et le déploiement de solutions basées sur l’Intelligence Artificielle Générative (LLMs, modèles de diffusion, RAG, agents IA…). Le/la consultant(e) intervient en mode projet pour apporter une expertise technique et fonctionnelle , depuis l’analyse du besoin jusqu’à la mise en production, tout en garantissant la valeur ajoutée métier. Responsabilités principales Analyser les besoins clients et identifier les cas d’usage pertinents pour l’IA générative (automatisation, production de contenu, support client, copilotes métiers, etc.). Concevoir des prototypes et POC (Proof of Concept) IA générative pour démontrer la valeur de la solution. Intégrer et configurer des modèles (GPT, Claude, Mistral, Llama, etc.) via API ou frameworks spécialisés (LangChain, Hugging Face, OpenAI API). Mettre en place des architectures RAG (Retrieval Augmented Generation) et orchestrer les pipelines de données. Optimiser les prompts et les interactions utilisateur (prompt engineering). Travailler en collaboration avec les équipes Data, Développement et Chef de projet pour industrialiser la solution. Assurer une veille technologique et accompagner la montée en compétences des clients. Participer aux réponses à appels d’offres et à la rédaction de propositions techniques. Profil recherché Formation Bac +5 (école d’ingénieur, université, master IA, informatique, data science ou équivalent). Première expérience en data science, machine learning, ou développement IA souhaitée. Expérience en environnement de prestation intellectuelle ou conseil technologique est un plus.
 
            Mission freelance
            
        Chef de projet DATA Domaine Banque / Assurance - MER
      
 Chef de projet DATA pour une mission à MER (près d'Orléans). Domaine Banque / Assurance. Profil : - Spécialiste de la gestion de projets techniques orientés Data, avec un minimum de 3 années d’expérience - Expérience des méthodologies Agile (Kanban, Scrum) en tant que Product Owner - Grande rigueur dans le suivi des actions projet - Expérience de la relation Infogérant / infogéré - Connaissance des sujets Data Science (ML, développement Python, IA générative) - Connaissance du fonctionnement des bases de données (Relationnelles, Cluster, Stockage S3) - Connaissance des infrastructures Cloud, des outils associés aux projets mentionnés ci-dessus, et de Power BI Description du poste : Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il interviendra sur les projets suivants : Projet d'extension des données du SI Décisionnel Ce projet agile vise à faciliter l’accès aux données pour les utilisateurs métier et les clients. Le prestataire jouera le rôle de Product Owner pour le produit « Data » : gestion du Backlog, collaboration étroite avec le Scrum Master, l’équipe de développement du service Modélisation des Données, les équipes IT, et les métiers. Projet de nouvelle stratégie d’alimentation du Datawarehouse Finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique. Autres projets Mise en place de solutions IA, finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique, mise en place d’un SI Décisionnel RH, et d'autres projets à initier en 2026. Mission : Piloter les projets sur les aspects suivants : - Organisationnels : planning, comitologie, suivi budgétaire, suivi de recette - Techniques : cartographie réseau, flux, analyse de risque, etc. - Relationnels : collaboration avec les équipes IT (Architectes, Réseau, RSI, etc.), les métiers, le CISO, etc. - Maitrise des risques : implique une grande rigueur dans le suivi des actions, des plannings et des budgets
 
            Offre d'emploi
            
        Ingénieur Devops / AWS / DataOps (Pas de profils Data Engineer / Data Scientist)
      
 Pour l'un de nos clients nous recherchons un(e) Ingénieur Devops / AWS / DataOps , qui sera amené à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers. Les principales missions sont les suivantes : Administration de la plateforme Data et de ses outils Administrer les composants Dataiku et CloudBeaver de la plateforme (installation, configuration, monitoring, backup, montées de version…) sur AWS Faire évoluer et gérer le maintien en conditions opérationnelles de l’environnement analytics et data science axé sur Dataiku (DSS, Fleet Manager, Spark sur EKS) Accompagner les utilisateurs sur les best practices et l’industrialisation des projets métiers Support et expertise technique Résoudre les incidents impactant les plateformes Conseiller les équipes du Data Office (Data engineers / Data scientists / Data analysts / BI engineer) sur les choix d’implémentation (architecture et technologie) Réaliser des audits techniques, des analyses de performance (requêtes SQL, jobs Spark, fonctions Lambda, entraînement modèles ML, …) ou des PoC. Evolution de l’infrastructure : Evaluer l'infrastructure actuelle et proposer si besoin une stratégie de modernisation progressive des composants legacy (IaaS) vers des solutions cloudnatives (PaaS/SaaS/Serverless), en intégrant les pratiques DevOps (IaC, CI/CD, automatisation) et FinOps Développer et implémenter les nouveaux patterns d’acquisition et de traitement de données (micro-batch, streaming, event-driven, transactionnel)
Déposez votre CV
-  
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
 -  
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
 -  
100% gratuit
Aucune commission prélevée sur votre mission freelance.
 
Derniers posts sur le forum
Les métiers et les missions en freelance pour Machine Learning
Data scientist
Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresData analyst
Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offresDéveloppeur·euse IA/Machine Learning
Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse IA/Machine Learning .
Découvrir les offresIngénieur·e R&D
L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e R&D .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offres