Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning

Ce qu’il faut savoir sur Machine Learning

Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Votre recherche renvoie 159 résultats.
Freelance

Mission freelance
Ingénieur Data

JobiStart
Publiée le
AI
AWS Cloud
Cloud

1 an
400-550 €
Île-de-France, France
Concevoir, développer et opérer des pipelines de données robustes et évolutifs au sein d’environnements Cloud Mettre en place des mécanismes d’ingestion, de transformation et d’exposition de données provenant de sources multiples, structurées ou non Exploiter les services Cloud pour l’orchestration des flux, le stockage et le calcul distribué Développer des composants Data orientés usages analytiques et Intelligence Artificielle Participer à la mise en production et à l’industrialisation de modèles de Machine Learning et d’IA générative Optimiser la performance, la fiabilité et la maintenabilité des traitements et des pipelines Définir et appliquer des règles de qualité, de cohérence et de normalisation des données Contribuer à la structuration des référentiels data et aux démarches de gouvernance Produire et maintenir la documentation technique et fonctionnelle des flux et modèles de données Accompagner les équipes métiers et analytiques dans la formalisation des besoins Data Animer des ateliers de cadrage afin de traduire les usages fonctionnels en solutions techniques Jouer un rôle d’interface entre les équipes IT, Data Science et utilisateurs finaux Automatiser les déploiements et les traitements via des pipelines CI/CD Contribuer à la conception et à la sécurisation des architectures Data Cloud Intégrer les traitements selon les standards ETL/ELT et les bonnes pratiques DevOps
Freelance

Mission freelance
INGENIEUR MLOps

HAYS France
Publiée le
Ansible
Apache Airflow
Cloud

3 ans
Lille, Hauts-de-France
Objectif de la mission Mettre en place et maintenir une chaîne d’intégration et de déploiement des modèles de Machine Learning en production, garantissant robustesse, scalabilité et monitoring. Contexte Vous interviendrez au sein d’une équipe Data & IA pour industrialiser des modèles ML liés à la qualité, la classification et l’enrichissement des données produits. Collaboration étroite avec Data Scientists et Data Engineers pour transformer des prototypes en solutions fiables. Responsabilités Conception & Déploiement Développer et maintenir des pipelines MLOps automatisés (CI/CD). Mettre en place l’infrastructure cloud via IaC. Assurer le versioning des modèles, données et pipelines (ZenML, MLflow). Monitoring & Maintenance Implémenter l’observabilité (drift, latence, qualité prédictions). Configurer alertes pour anomalies et dégradations. Optimiser les ressources de calcul. Collaboration & Qualité Accompagner les Data Scientists sur les bonnes pratiques MLOps. Intégrer des Data Quality Gates dans les pipelines. Contribuer à l’architecture Data Mesh (modèles = Data Products).
CDI
Freelance

Offre d'emploi
Développeur Expert Python Générative AI H/F

BK CONSULTING
Publiée le
AI
Python

24 mois
60k-65k €
325-650 €
Paris, France
Intégrez une équipe dédiée à la conception et au déploiement d'applications data innovantes, fiables et scalables, exploitant des algorithmes de pointe en Machine Learning (ML) et IA Générative (LLM). Votre mission : contribuer à la transformation technologique en explorant le potentiel de l'IA et de la GenAI pour identifier de nouveaux cas d'usage et optimiser des solutions concrètes. Environnement technique Langages et compétences clés : Python (expertise requise) Go (notions souhaitables) PL/SQL (maîtrise requise) Technologies associées : Modèles de langage (LLM) Unités de traitement graphique (GPU) Méthodologie : Développement en mode Agile (analyse technique, documentation, tests, revues de code, collaboration avec les équipes infrastructure). Missions principales Développement et innovation : Concevoir des applications traditionnelles intégrant des services d'IA Générative. Participer à la construction de plateformes IA scalables et adaptables à divers domaines métiers. Intégrer des solutions IA robustes pour créer de la valeur ajoutée. Maintenance et amélioration : Assurer le support et l'évolution d'une plateforme basée sur des LLM (ex : outil de conseil ESG). Veiller à son disponibilité et à son enrichissement continu (nouveaux modèles, techniques, cas d'usage). Coordination et collaboration : Travailler au sein d'une équipe internationale (répartie sur plusieurs sites). Gérer les défis techniques, fonctionnels et organisationnels au quotidien. Participer activement à un cycle de développement logiciel Agile.
Freelance
CDI
CDD

Offre d'emploi
Incident Manager (ITIL)

RIDCHA DATA
Publiée le
ITIL

1 an
Île-de-France, France
Contexte La mission s’inscrit dans le cadre du maintien en conditions opérationnelles des applications internes , en s’appuyant sur les processus ITIL . L’objectif est d’assurer la performance des services IT, la gestion efficace des incidents et des changements, ainsi que l’amélioration continue des processus ITSM. Missions principales 🔹 Pilotage des incidents & gestion de crise Piloter la gestion des incidents et incidents majeurs Gérer les situations de crise Garantir le respect des SLA Coordonner les escalades techniques Assurer une résolution rapide et efficace 🔹 Gestion des changements Analyser les demandes de changement Organiser et animer les CAB Valider les mises en production Assurer la coordination transverse 🔹 Gestion des problèmes Identifier et analyser les problèmes récurrents Piloter les plans d’actions correctifs Mettre en œuvre des actions préventives Réduire le backlog incidents/problèmes 🔹 Reporting & amélioration continue Produire un reporting régulier : KPI SLA Backlog Contribuer à l’amélioration continue des processus ITSM Être l’interlocuteur du service Process & Tools Livrables attendus Mise à jour des outils ITSM (ServiceNow ou équivalent) Mise à jour de la documentation opérationnelle Comptes rendus d’avancement mensuels Suivi et analyse des indicateurs de performance Environnement Mode Agile Processus ITIL Outils ITSM & observabilité Environnement applicatif et infrastructure complexe Compétences requises 🔹 Techniques Maîtrise des processus ITIL Bonne compréhension des infrastructures IT Expérience en gestion d’incidents majeurs Maîtrise d’outils ITSM (ServiceNow idéalement) Capacité d’analyse d’incidents complexes 🔹 Compétences en IA (appréciées) Connaissance des concepts : ML Generative AI RAG LLM Agents Capacité à formuler des requêtes efficaces (prompting) Sens critique sur les limites et biais de l’IA Sensibilité RGPD et enjeux éthiques Langues Français courant – impératif Anglais professionnel – impératif
CDI

Offre d'emploi
Data Engineer Senior

INFOGENE
Publiée le

60k-70k €
Neuilly-sur-Seine, Île-de-France
Contexte du poste Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Data & Cloud. Vous jouerez un rôle clé dans la conception d’architectures data robustes, l’industrialisation des pipelines, l’optimisation des performances BigQuery et la mise en place de solutions IA/ML. Vous interviendrez dans un environnement GCP-first , moderne, orienté automatisation et bonnes pratiques DevOps. 1. Compétences techniques attendues Architecture Système & Cloud Excellente maîtrise de Google Cloud Platform (GCP) Containerisation & architectures serverless Maîtrise des patterns d’intégration d’entreprise DevOps & Infrastructure as Code Terraform (développement de modules, automatisation, paramétrages avancés) CI/CD : GitHub Actions, pipelines automatisés Maîtrise de Git / GitHub Développement d’API Conception & développement d’API REST Expérience sur Apigee , Cloud Run , FastAPI Architectures orientées événements Mise en place de flux événementiels : GCP Pub/Sub Connaissance de Kafka Modélisation de données Modèles en étoile (Star Schema) Modèles en flocon (Snowflake Schema) Modélisation dimensionnelle avancée BigQuery – Expertise avancée Écriture et optimisation de procédures stockées complexes Optimisation des performances & des coûts Optimisation DirectQuery pour outils BI Orchestration & pipelines de données Cloud Workflows, EventArc, Cloud Run Scripting Python ML / IA / GenAI Algorithmes classiques, MLOps Expérience sur Vertex AI (pipelines, modèle, tuning) Compréhension des réseaux neuronaux (encodeur/décodeur) Connaissance de concepts LLM, RAG, MCP BI & Analytics Looker, modèles LookML Qualité & Observabilité Expérience en qualification, monitoring & observabilité des données Méthodologies & Leadership Travail en équipes Agile / Scrum Mentorat & accompagnement de développeurs Atouts (Nice to have) Compétences WebApp : JavaScript / React Certification GCP Data Engineer ou Cloud Architect
CDI

Offre d'emploi
Stage - Data Scientist (H/F)

█ █ █ █ █ █ █
Publiée le
Deep Learning
Docker
Flask

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Platform engineer : PYTHON Azure + de 9 ans XP

Codezys
Publiée le
Azure
Azure DevOps Services
Databricks

12 mois
490-550 €
Niort, Nouvelle-Aquitaine
Notre plateforme data science sur Azure est en construction. Le platform engineer a deux activités : - le déploiement de l'infrastructure as code sur le cloud - le développement de pipeline CI/CD pour les usages data science qui sont en cours d'industrialisation. Les missions de l'équipe sont : - Assurer le maintien en condition opérationnelle, l’évolutivité et la connaissance de la plateforme Microsoft Azure CLAUDI.IA - Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et de leurs produits industriels de data science - Apporter un support fonctionnel et technique aux directions métiers Objectifs et livrables La Société devra fournir les prestations suivantes : En tant que platform engineer sur notre plateforme CLAUD.IA. Assurer un rôle de : - concepteur et de développeur de pipelines CI/CD Data et Machine Learning mise en œuvre dans le cycle de vie des produits data science - concepteur et de développeur de pipelines CI/CD de création de ressources Azure, de web applications et d'environnements de travail à destination des data scientists
Freelance

Mission freelance
Ingénieur Azure AI & Cognitive Services

JobiStart
Publiée le
AI
Azure

3 ans
400-550 €
Paris, France
Description du poste : Au sein du lab d'innovation, vous concevez et déployez des solutions d'intelligence artificielle basées sur les services Azure. Votre mission consiste à intégrer des capacités cognitives (Vision, Speech, Language, Decision) dans les applications bancaires pour automatiser les processus et améliorer l'expérience utilisateur. Vous développez des solutions utilisant Azure OpenAI (GPT-4) pour le traitement du langage naturel, le résumé de documents juridiques ou l'analyse de sentiment. Vous mettez en œuvre des architectures MLOps sur Azure Machine Learning pour industrialiser le cycle de vie des modèles, de l'entraînement au déploiement. Vous travaillez sur l'optimisation des coûts (FinOps AI), la sécurité des modèles et l'éthique des algorithmes. Vous collaborez avec les data scientists pour transformer les prototypes en services IA robustes, scalables et directement intégrés aux workflows métiers de la banque.
Freelance

Mission freelance
Analyste CyberSoc SPLUNK

IBSI
Publiée le
CrowdStrike
Endpoint detection and response (EDR)
Splunk

12 mois
520-560 €
Paris, France
Analyser, investiguer et traiter les incidents de sécurité. Remédiation, contribution à l’amélioration continue et à l’optimisation des outils, règles de détection et scripts d’automatisation. Mise en place de projets sur Splunk ( RBA, Machine Learning ToolKit ) pour d’optimiser la couverture de détection. Assurer une veille sur les menaces et vulnérabilités, Participer au partage de renseignements fiables et contextualisés, Exécuter des activités régulières de « Threat Hunting » Développer de nouvelles hypothèses de recherche. Produire des rapports réguliers sur ses activités et maintiendra les bases de connaissances (Confluence, Git, SharePoint). Compétences requises : Compétences solides sur Splunk (certification PowerUser appréciée) Maîtrise de MITRE DETECT & DEFEND Bonnes connaissances des solutions EDR (Crowdstrike, XDR PA, MDE) Maîtrise des bases en analyse de malwares, rétro-conception et analyse post-mortem Connaissance du renseignement cyber et des formats de partage (STIX, OpenIOC) Connaissances sur les TIP (MISP, OpenCTI, ThreatQuotient, etc.) Connaissances sur les tactiques, techniques et procédures (TTPs) des attaquants Langue de travai l : Anglais (bon niveau) Compétences demandées Compétences Niveau de compétence Maîtrise de MITRE DETECT & DEFEND Bonnes connaissances des solutions EDR (Crowdstrike, XDR PA, MDE) Connaissances sur les tactiques, techniques et procédures (TTPs) des attaquants Maîtrise des bases en analyse de malwares, rétro-conception et analyse post-mortem Connaissance du renseignement cyber et des formats de partage (STIX, OpenIOC) Compétences solides sur Splunk (certification PowerUser appréciée) Connaissances sur les TIP (MISP, OpenCTI, ThreatQuotient, etc.)
Freelance

Mission freelance
Expert Cybersécurité & DevSecOps GenAI – Azure / M365

Comet
Publiée le
AWS Cloud
Azure
CI/CD

12 mois
650-750 €
Paris, France
Dans le cadre du renforcement de son expertise cybersécurité autour des environnements Cloud, Data et Intelligence Artificielle , une grande organisation recherche un Expert Cybersécurité & DevSecOps GenAI pour intervenir sur des sujets stratégiques à fort enjeu. Vous intégrerez une communauté d’experts en charge de la sécurisation des usages GenAI (IA générative) et interviendrez en support des centres de compétences, des équipes projets et des entités métiers, en France comme à l’international. Votre rôle consistera à accompagner la sécurisation des plateformes Microsoft Azure & Microsoft 365 (Copilot, Azure Cognitive Services, Fabric, Power Platform, Azure ML), depuis la définition des architectures jusqu’au déploiement opérationnel des contrôles de sécurité. Vous participerez à la production de livrables sécurité structurants (dossiers de sécurité, analyses de risques, blueprints, recommandations d’architecture), à la revue de code , et à l’intégration de la sécurité dans les pipelines DevSecOps . La mission s’inscrit dans un environnement Agile , anglophone, avec une forte exigence de qualité, de rigueur et de capacité à interagir avec des équipes techniques et métiers de haut niveau.
Freelance

Mission freelance
Un Expert / Référent Technique – Dataiku & Braincube sur Malakoff

Almatek
Publiée le
Dataiku

6 mois
Malakoff, Île-de-France
Almatek recherche pour l'un de ses clients; Un Expert / Référent Technique – Dataiku & Braincube sur Malakoff. Environnement Technique : Plateforme Dataiku en environnement hybride : Cloud AWS (Landing Zone Safran) + On Premise pour données C3 Services : Design Node, Automation Node, API Node, Deployer Node Intégration écosystème Data, stockage pérenne, déport compute EKS / Snowflake Plateforme Braincube : Déploiement Cloud AWS sur EKS Architecture assurée par l’éditeur Braincube Sécurité & Gouvernance : RBAC, SSO/IAM, journalisation, conformité RGPD Documentation & Outils : VS Code, Git, frameworks internes Confluence/SharePoint Data Factory Gestion agile via Teams & backlog Environnements : Dev / Pré-production / Production Processus d’industrialisation et de validation définis Prestation Attendue : Pilotage & gestion du service Maintien des standards, gestion des licences, suivi des usages via KPIs Gestion incidents, demandes, changements ; communication interne & client Définition et suivi des SLAs Optimisation de la performance opérationnelle Architecture & Expertise technique Rôle de référent technique & architectural pour la plateforme Data Groupe (Snowflake, Dataiku, Braincube) Garantie de la résilience du service, gestion des obsolescences Contrôle du niveau de sécurité Roadmap & gouvernance Construction de la roadmap d’évolution Pilotage du plan de charge Coordination France/Inde (prestataires, éditeur, interne) Communication & coordination Communication en cas d’incident, évolution ou maintenance Interface avec DSIC (GCIS, Delivery cas d’usage, etc.) Support & accompagnement Accompagnement des équipes dans l’exploitation Dataiku/Braincube Contribution à la montée en compétence des équipes Expertises Techniques Attendues : Très bonne connaissance des environnements Cloud AWS (S3, EC2, EKS) Maîtrise de Dataiku (DSS, Automation, API, Deployer) Connaissance du ML Ops, IA, Machine Learning et IA générative Bases solides en architecture de données & systèmes d'information Compréhension des modèles de gouvernance Data (RBAC, sécurité, RGPD) Connaissance des problématiques d’exploitation data (flux, SLA, performance) Capacité à structurer une offre de service, un plan de formation et une gouvernance Excellente qualité rédactionnelle (docs d’archi, guides, supports de formation) Capacité à concevoir un business model adapté Livrables : Offre de service documentée, intégrée dans Service Now Météo du service : KPIs incidents, demandes, faits marquants Guide de bonnes pratiques Dataiku & Braincube (standards, modèles, FAQ) Supports de formation et onboarding (slides, démos, exercices) Plan de montée en compétence (par profil) Cartographie des flux et modèles de données cibles Business model défini et validé.
CDI
Freelance
CDD

Offre d'emploi
Ingénieur DevOps – Cloud Public GCP (Confirmé à Expert)

RIDCHA DATA
Publiée le
Ansible
CI/CD
Google Cloud Platform (GCP)

1 an
Boulogne-Billancourt, Île-de-France
Contexte de la mission Dans le cadre d’un programme de transformation digitale stratégique, l’entreprise recherche un Ingénieur DevOps pour intervenir sur une plateforme digitale centrale hébergée en grande partie sur le cloud public Google Cloud Platform (GCP) . La mission s’inscrit dans un environnement Agile et collaboratif, avec de forts enjeux d’industrialisation, de sécurisation et d’optimisation des infrastructures IT et cloud. Objectifs principaux Industrialiser et automatiser les déploiements d’infrastructures et d’applications sur le cloud public GCP Garantir la stabilité, la sécurité et la performance des environnements IT Optimiser les coûts et l’utilisation des ressources (FinOps) Accompagner la mise en production des services digitaux Missions clés Déployer les infrastructures et services via des outils d’Infrastructure as Code (Terraform, Ansible) sur GCP Mettre en place et maintenir les pipelines CI/CD (GitLab CI) Administrer les environnements Linux/Unix et les ressources cloud GCP Assurer la supervision, le monitoring et la gestion des incidents (RUN) Appliquer les bonnes pratiques de sécurité systèmes, réseaux et cloud Optimiser les performances des infrastructures et des flux réseau Rédiger et maintenir la documentation technique Participer aux démarches d’optimisation des coûts cloud (FinOps) Compétences techniques essentielles Expertise solide en infrastructures IT et cloud public (notamment GCP) Très bonnes compétences en réseaux (architecture, performance, sécurité) Infrastructure as Code : Terraform, Ansible CI/CD : GitLab CI Administration Linux/Unix Sécurité des environnements cloud et pipelines Monitoring et observabilité Compétences complémentaires appréciées Connaissances en IA, Machine Learning et IA générative Maîtrise des méthodologies Agiles (SAFe apprécié) Anglais technique
Freelance
CDI

Offre d'emploi
Databricks Data Engineer

VISIAN
Publiée le
API REST
PySpark

1 an
Île-de-France, France
Descriptif du poste Expert reconnu en plateforme de données et architecture Lakehouse, incluant : Optimisation Spark / PySpark (AQE, broadcast joins, stratégies de caching, autoscaling de cluster). Politiques de cluster, configuration de cluster et pool, et optimisation des coûts. Monitoring, diagnostics et dépannage des performances à l'aide de métriques et event logs. APIs REST et CLI pour l'automatisation. Expert reconnu en utilisation de Delta Lake, incluant : Pipelines d'ingestion et de transformation (Bronze–Silver–Gold). Delta Live Tables pour les pipelines de production (CDC, expectations, orchestration). Structured streaming et traitement incrémental. Débogage des goulots d'étranglement de performance dans les workloads Delta (data skew, petits fichiers, auto-compaction). Expert reconnu en : Python pour l'ingénierie des données, programmation orientée objet, data science, tests unitaires (pytest) et packaging. SQL (SQL analytique, window functions, SQL Databricks). Spark / PySpark pour le traitement distribué et l'optimisation. Expert reconnu en utilisation de Unity Catalog, incluant : Implémentation du contrôle d'accès granulaire (sécurité au niveau des lignes et colonnes, vues dynamiques, masquage). Gestion des objets Unity Catalog à grande échelle (catalogs, schémas, tables, modèles et gouvernance des fonctions). Pratiques de développement sécurisé, protection des données et conformité réglementaire (RGPD, PII). Expert reconnu en Databricks Jobs et Workflows (orchestration des tâches, retries, monitoring), incluant : Databricks Repos et intégration Git / Gitflow. Déploiement des assets Databricks (notebooks, jobs, pipelines DLT) via des pipelines CI/CD. Databricks SQL editor et SQL Warehouses pour les dashboards ou pipelines de production. Infrastructure as Code utilisant Terraform (providers Databricks et Azure) et ARM templates. Maîtrise avancée de l'écosystème Databricks Machine Learning et Generative AI. Maîtrise avancée de MLflow (experiment tracking, model registry, model serving). Maîtrise avancée de la construction de pipelines ML utilisant Databricks AutoML, Feature Store et feature engineering. Expérience pratique avérée avec les outils de développement basés sur l'IA, incluant les workflows basés sur des agents. Bonne compréhension des normes d'interopérabilité émergentes telles que le Model Context Protocol (MCP) ou équivalent. Capacité à évaluer de manière critique et à intégrer de manière sécurisée les résultats générés par l'IA dans les workflows de développement.
CDI
CDD

Offre d'emploi
Ingénieur Réseau & Sécurité

Halian
Publiée le
Openshift

3 ans
Saclay, Île-de-France
Résumé du poste : Nous recherchons un Ingénieur Réseau & Sécurité hautement qualifié et adaptable, disposant d’une solide expérience en Web/DevOps , pour concevoir, sécuriser et automatiser l’infrastructure réseau avancée qui soutient notre AI Factory . Ce rôle implique la gestion de fabrics à haut débit (RoCE, InfiniBand) sur des clusters GPU Dell/NVIDIA, garantissant une connectivité sécurisée et résiliente pour les charges de travail AI/ML. Vous collaborerez étroitement avec les équipes DevOps et plateformes IA afin d’optimiser le déploiement, la supervision et la réponse aux incidents pour des applications cloud-native fonctionnant sur OpenShift et Kubernetes , tout en intégrant des solutions innovantes d’orchestration GPU et de gestion des données. Responsabilités principales : Réseau & Sécurité : Concevoir, déployer et sécuriser des architectures réseau à haut débit (RoCE v2) pour les workloads AI/ML. Gérer les environnements réseau GPU Dell/NVIDIA, y compris la configuration des switches backend et frontend (Z9432F, S5248F). Déployer et administrer des architectures réseau sécurisées et évolutives (LAN/WAN, firewall Palo Alto). Mettre en œuvre et maintenir des contrôles de sécurité sur des fabrics RDMA, garantissant l’isolation et l’intégrité des clusters GPU. Gérer les fabrics DC (VXLAN-EVPN). Implémenter des mécanismes QoS pour des environnements DC très haute performance (marquage, file d’attente, WRED, buffering adaptatif, ECMP/multi-path load-balancing). Bonne connaissance des technologies et architectures QoS pour environnements DC/haute performance, ainsi que des fabrics lossless pour AI/ML : PFC, DCQCN, RoCE Adaptive Routing (NVIDIA). Configurer et maintenir les dispositifs de sécurité réseau (firewalls Palo Alto). Surveiller et analyser le trafic sur des fabrics 400G/800G via des outils de télémétrie. Répondre aux incidents de sécurité, réaliser des analyses de causes racines et soutenir les enquêtes forensiques. Assurer la conformité avec les normes de sécurité et exigences réglementaires. Collaborer avec les équipes sécurité pour mettre en œuvre des stratégies de segmentation réseau. Web/DevOps : Expérience sur des environnements d’orchestration (OpenShift/Kubernetes/Docker) avec focus sur la planification GPU-aware et les politiques réseau/sécurité. Intégrer les contrôles de sécurité et les bonnes pratiques dans les processus automatisés de build et de déploiement. Surveiller les services web pour la performance, la disponibilité et la sécurité (Prometheus, Grafana, ELK). Soutenir les tests de sécurité applicative (SAST/DAST) et la remédiation des vulnérabilités. Développer des scripts et outils pour automatiser les tâches répétitives et améliorer l’efficacité opérationnelle. Compétences et expériences requises : Maîtrise approfondie de RoCE v2, InfiniBand et des protocoles réseau haute vitesse. Expérience avec l’infrastructure GPU Dell/NVIDIA et la gestion des switches (Z9432F, S5248F). Solide expertise en technologies de sécurité réseau et pratiques RDMA-aware. Connaissance des environnements OpenShift, Kubernetes et du networking des conteneurs. Expérience confirmée en ingénierie réseau : TCP/IP, routage, switching, VPN, VLAN, firewalls. Maîtrise des firewalls Palo Alto. Connaissance des pipelines CI/CD et outils DevOps (Jenkins, GitLab CI, CircleCI) – atout . Maîtrise des outils IaC (Terraform, Ansible, CloudFormation) – atout . Familiarité avec la sécurité des pipelines AI/ML et les plateformes d’orchestration GPU (RUN:AI, NVIDIA Enterprise). Compétences en scripting (Python, Bash, PowerShell). Connaissance des services web, API et concepts de sécurité HTTP. Maîtrise des outils de monitoring/logging (Prometheus, Grafana). Excellentes compétences en troubleshooting et analyse avec une forte orientation sécurité.
Freelance
CDI

Offre d'emploi
Profil hybride Dev / DevOps / Platform orienté automatisation d’infrastructure et de plateformes IA.

HR DNA
Publiée le
DevOps
Développement

2 ans
40k-53k €
400-510 €
Niort, Nouvelle-Aquitaine
Chers consultants, Nous recherchons actuellement, pour un client du secteur de l'assurance basé à Niort, un profil hybride Dev / DevOps / Platform orienté automatisation d’infrastructure et de plateformes IA. 🎯 Le cœur du besoin (en clair)🔹 Le rôle Un développeur orienté automatisation & plateformes cloud , qui : écrit du code (Python / TypeScript / Java), mais pas pour faire du produit applicatif , plutôt pour : automatiser des plateformes gérer de l’Infra as Code outiller des équipes data / IA fiabiliser les environnements 👉 Typiquement : Platform Engineer DevOps Engineer orienté dev Cloud Automation Engineer 🧩 Les compétences clés (traduites)✔️ Langages Python (scripting, tooling, API) TypeScript (souvent pour Pulumi) Java (optionnel) 👉 Le code sert à automatiser , pas à livrer un produit métier. ✔️ Infra / Cloud Azure (plateforme cible) Infra as Code : Terraform / OpenTofu Pulumi (gros signal moderne) Scripting autour des plateformes IA provisioning déploiement environnements ML 👉 Donc : plus qu’un Ops traditionnel moins qu’un dev produit très à l’aise avec : pipelines scripts automatisation observabilité CI/CD Il faut pouvoir assurer 2 jours / semaine de présentiel sur site à Niort. Si vous êtes intéressé, envoyez-moi votre CV.
Freelance

Mission freelance
POT8930 - Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes

Almatek
Publiée le
JIRA

6 mois
340-400 €
Auvergne-Rhône-Alpes, France
Almatek recherche pour l'un de ses clients, Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes . Description Mission générale : Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz, au service des équipes de développement et DevSecOps. Le consultant contribue également à l’intégration d’usages IA dans les outils du développeur augmenté, ainsi qu’à l’accompagnement des équipes internes. Responsabilités principales 1. Développement & industrialisation Data / IA (activité dominante) Concevoir et développer des composants logiciels Python : scripts, services, APIs, traitements batch. Mettre en œuvre des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Développer et industrialiser des solutions Data et IA destinées aux équipes de développement Enedis. Contribuer à l’intégration des usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, analyse, observabilité). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations utiles au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation et qualité Structurer et maintenir la documentation technique. Contribuer aux référentiels de connaissances (Confluence). Participer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement et formation des équipes internes Appuyer les équipes dans la prise en main des solutions. Animer des sessions de formation ou démonstrations (ex : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité des équipes 5. Pilotage et coordination opérationnelle Suivre le backlog, collaborer avec les équipes projets / produits / outillage. Produire un reporting régulier d’avancement et d’activité. Compétences requises Techniques (obligatoires) Développement Python avancé. Connaissance des modèles et usages IA (machine learning, IA générative, observabilité IA). Traitement et préparation de données (ETL/ELT). Maîtrise Power BI et outils de dataviz. Usage outillé des chaînes DevOps / CI-CD (GitLab, pipelines). Environnement et outils attendus GitLab CI / Placide Confluence / JIRA Plateformes Data & IA GitHub Copilot (usage expert)

Les métiers et les missions en freelance pour Machine Learning

Data scientist

Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.

Data analyst

Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.

Développeur·euse IA/Machine Learning

Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.

Ingénieur·e R&D

L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.

159 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous