Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 440 résultats.
Freelance
CDI

Offre d'emploi
Senior Data Engineer Big Data

VISIAN
Publiée le
AWS Cloud
Python

1 an
Île-de-France, France
Contexte Dans le cadre de son plan de transformation Data, un grand groupe média poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing. Pour répondre à cet enjeu, ce groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI , ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour , dont une part majoritaire en temps réel. Les cas d'usage couverts sont variés, parmi lesquels : IA pour recommandation des programmes et des offres Plateforme agentique customer-facing Gender Equality Monitoring Feature Store Modernisation des flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice Le consultant aura pour mission de réaliser des développements avancés sur le socle des données Big Data pour la mise en place des usecases IA. Cet environnement Big Data, fortement orienté Streaming et IA, traite quotidiennement plus de 100 To de données . Le consultant doit maîtriser les architectures de Streaming Data, AWS (notamment Lambda, Batch, Step Function, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB, etc.), Airflow, Scala, Spark, SQL, Snowflake, GitLab CI/CD, Terraform. Missions Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Participer activement à l'évolution continue de la plateforme IA
Freelance

Mission freelance
Lead / Data Engineer senior

Comet
Publiée le
Apigee
Google Cloud Platform (GCP)
Python

5 mois
210-630 €
Île-de-France, France
Bonjour à tous, notamment aux Data Engineers Seniors ⚙️ spécialisés sur GCP / BigQuery 🔎 Je cherche un Data Engineer Senior avec une forte dimension expertise technique et expérience en rôle de lead, pour rejoindre une data platform stratégique en pleine montée en puissance. L’objectif de la plateforme est de centraliser, transformer et exposer la donnée à grande échelle afin de supporter des cas d’usage analytics, BI et IA dans un environnement data moderne. La plateforme est déjà en place et entre dans une phase clé d’optimisation, de scalabilité et d’enrichissement des usages (notamment autour de l’IA). 💻 Ce que tu vas faire : - Concevoir et faire évoluer des pipelines data robustes, scalables et sécurisés - Développer des traitements avancés sur BigQuery (CTE, window functions, optimisation performance & coûts) - Optimiser les requêtes à grande échelle via analyse des plans d’exécution - Concevoir des modèles de données (star / snowflake) pour des usages BI (PowerBI, Looker) - Intégrer des sources de données multiples (API, cloud, bases, fichiers…) - Industrialiser les workflows via CI/CD et Infrastructure as Code (Terraform, Cloud Build) - Contribuer à l’intégration de cas d’usage IA dans les pipelines data - Participer aux choix d’architecture et structurer les bonnes pratiques data 🎯 Stack & environnement : BigQuery / SQL / Python / GCP / Cloud Build / Cloud Workflows / Apigee / Terraform / GitHub / PowerBI / Looker ➕ Bonus : expérience sur des environnements media / digital data (Google Analytics, Salesforce, CRM, social media) 📍 IDF : 2 jours de TT 🏡 📅 Démarrage : ASAP Qu'en penses-tu ? Une belle journée,
CDI

Offre d'emploi
AMOA DATA

AVALIANCE
Publiée le
AMOA

40k-60k €
Paris, France
Voici les principaux axes liés à la transformation numérique et aux grands projets de transformations IT : • Digitalisation des parcours clients • Évolution du système d’information • Intégration de l’intelligence artificielle • Refonte de l’environnement digital • Objectifs financiers et opérationnels. Les projets s’inscrivent dans une architecture DataPlatform structurée en quatre couches : • Sources de données : SI internes(PICRIS, ALTO ESR, NEC, ECO, Salesforce, IzyDSN…), flux provenant de SI externes (délégataires,, SNGI-CNAV, INSEE…), saisies manuelles
Freelance
CDI

Offre d'emploi
Ingénieur IA Fullstack - Python / C#

VISIAN
Publiée le
C#
Large Language Model (LLM)
Python

1 an
40k-45k €
400-550 €
Paris, France
Missions Ingénierie IA & LLM Conception d'architectures IA : sélection et intégration des modèles adaptés (OpenAI, Llama, ... via APIs locales). Mise en œuvre du RAG (Retrieval-Augmented Generation) : conception et alimentation des pipelines de données (chunking sémantique, embeddings, vector databases) pour connecter les LLM aux bases de connaissances internes. Écosystème MCP (Model Context Protocol) : développement et configuration de serveurs/clients MCP pour permettre aux agents IA d'interagir nativement avec les outils et bases de données. Optimisation : maîtrise de la gestion des tokens (coûts et fenêtres de contexte) et du fine-tuning de prompts. Développement Fullstack & Architecture Promotion de l'utilisation d'agents de coding type RooCode dans un IDE. Backend : développement et maintenance des services robustes, principalement en C# / .NET (Core & Framework) et ponctuellement en Java. Frontend & Desktop : évolution des interfaces (.NET WPF et web Angular). Data & Scripting : utilisation de Python pour le prototypage IA et le traitement de données.
Freelance
CDI

Offre d'emploi
Data Manager confirmé – Gouvernance Data / Data Quality / Catalogage

Inventiv IT
Publiée le
Big Data
Data governance
Développement

6 mois
48k-58k €
460-550 €
Paris, France
Nous voulons un profil polyvalent technico-fonctionnel orienté Data, Data Quality, Développement & DevOps (avec une vision globale). 20 % : Technique applicative (DevOps & Développement) 20 % : Data Gouvernance & Catalogage 20 % : Data transverse 40 % : Data Quality Confirmé : entre 3/7 ans d’expérience Contexte Au sein de la Data Factory, la mission s’inscrit dans le cadre du renforcement de l’outillage et des pratiques de Data Management sur la plateforme Data et sur les sujets de Data Quality Groupe. L’objectif est d’accompagner l’industrialisation des pratiques de gouvernance de la donnée, d’améliorer la qualité des données, de fiabiliser les mises en production et de renforcer la traçabilité et la conformité des activités data. Objectifs de la mission Le consultant interviendra pour : renforcer l’industrialisation des pratiques de Data Management sur la plateforme Data améliorer l’outillage de catalogage, de lineage et d’interconnexion entre outils, contribuer au chantier Data Quality fonctionnelle au niveau Groupe, garantir la conformité aux exigences de gouvernance data et de traçabilité, accompagner les métiers et équipes projets dans l’usage des outils et livrables de gouvernance. Positionnement Rattachement opérationnel : sous la supervision du Product Owner de la Plateforme Data Groupe Reporting hiérarchique : manager des plateformes Data Interactions fréquentes avec : référents Data métiers, équipes Gouvernance Data Groupe, squads projets, intervenants IT / DSI. Participation aux principales cérémonies Agile de l’équipe. Missions principales 1. Administration et amélioration des outils de Data Management Garantir la cohérence globale des paramétrages des fonctions Data Management dans le socle Data & IA. Administrer ou contribuer à l’administration des outils de gestion de métadonnées et de catalogage. Assurer la continuité et l’amélioration de la qualité de l’écosystème d’outils. Gérer les interconnexions pour garantir un linéage fiable entre outils, notamment Databricks et Collibra. Produire la documentation d’exploitation et les modes opératoires. Identifier des améliorations pragmatiques pour réduire les tâches manuelles et augmenter le taux de tables documentées/taggées. 2. Contribution à la gouvernance Data Groupe Apporter son expertise sur l’offre de services autour du Data Catalogue Groupe / Collibra. Contribuer à la structuration du programme Data Quality fonctionnelle : méthodologie, planning, audits, reporting, coordination avec les BU. 3. Accompagnement méthodologique des produits Data métier Accompagner les Data Owners métiers dans les ateliers de qualification des sources. Garantir la cohérence des CCD (Cadres de Confiance Data). Assister les équipes sur la production des Contrats d’Interface et Contrats de Consommation. Faire monter les équipes en autonomie sur les outils fournis, notamment via coaching et accompagnement. 4. Gouvernance, conformité et pilotage Documenter le patrimoine de données avec une vision transverse. Vérifier le bon renseignement des métadonnées techniques de la recette à la production. Contrôler et fiabiliser le linéage. Maintenir la qualité du catalogage : définitions, descriptions, tags, propriétaires, périmètres. Classifier les données selon leur sensibilité : DCP, données business sensibles, santé, etc. Fournir des tableaux de bord sur la qualité des données et la gouvernance dans la plateforme Data Suivre l’avancement sur plusieurs projets en parallèle. Tenir à jour la matrice Applications x Domaine. Rédiger des comptes rendus orientés actions / décisions. Alerter rapidement et formellement en cas de retard ou dépendance bloquante.
Freelance

Mission freelance
MLOps / Data Engineer (Expert Dataiku)

HAYS France
Publiée le
Dataiku
MLOps

6 mois
Nouvelle-Aquitaine, France
Contexte Le domaine SI Dataplatform & BI souhaite renforcer ses capacités d’industrialisation des projets Data Science et IA. La plateforme Dataiku DSS est utilisée pour le développement des modèles ML et nécessite une expertise externe pour sécuriser leur mise en production, leur exploitation dans le temps et leur alimentation en données. La mission s’inscrit à l’interface entre l’équipe Data Science et l’équipe Dataplatform de la DSI, avec une forte orientation d’industri­­alisation (build & run). Objectifs de la mission Industrialiser les projets de Machine Learning développés sous Dataiku DSS Mettre en place une chaîne MLOps robuste, sécurisée et maintenable Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku Assurer le bon passage du POC à la production, puis l’exploitation dans le temps Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data Périmètre d’intervention • Projets Data Science & IA développés sous Dataiku DSS • Chaînes MLOps (entraînement, déploiement, supervision des modèles) • Connexion de Dataiku aux sources de données de l’entreprise • Environnements DEV / TEST / PROD Livrables attendus Pipelines MLOps Dataiku industrialisés et documentés Modèles ML déployés et supervisés en production Connecteurs Dataiku vers les sources de données opérationnels Documentation d’exploitation MLOps & DataOps Recommandations de standardisation et d’amélioration continue Interactions Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation
CDI

Offre d'emploi
ML Engineer H/F

OBJECTWARE
Publiée le
Agent IA
CI/CD
Large Language Model (LLM)

40k-65k €
Bordeaux, Nouvelle-Aquitaine
🎯 ML Engineer – Industrialisation & Agents IA Nous accompagnons actuellement un de nos clients dans le cadre du renforcement de ses équipes Data / IA, avec un enjeu fort autour de l’industrialisation des modèles et du développement d’agents basés sur les LLM. Dans ce contexte, nous recherchons un ML Engineer , avec un niveau d’expérience ouvert (à partir de 4 ans jusqu’à expert), pour intervenir sur des sujets à forte valeur ajoutée. Missions Concevoir et développer des agents IA basés sur des LLM Participer à l’ industrialisation des modèles de Machine Learning Mettre en place et optimiser des pipelines MLOps Assurer le déploiement, le monitoring et la performance des modèles en production Collaborer avec les équipes Data, IT et métiers pour intégrer les solutions IA dans les outils existants Contribuer aux bonnes pratiques CI/CD, automatisation et GitOps 🛠️ Environnement technique IA / LLM : LangChain, LangGraph, LLM MLOps : MLflow, Kubeflow DevOps / Industrialisation : CI/CD, GitOps Data / ML : Machine Learning (profil ex Data Scientist apprécié)
CDI

Offre d'emploi
ALTERNANCE - Assistant(e) Data Référentiel (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Microsoft Excel
SharePoint

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Expert Big Data / Lead Tech Big Data

ONSPARK
Publiée le
Cloudera
Hadoop

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Expert / Lead Tech Big Data pour accompagner nos clients grands comptes. Vous interviendrez en tant que référent technique au sein d'environnements Big Data on-premise matures (Cloudera CDP), avec de fortes exigences en matière de performance, de sécurité (ISO 27001, RGS) et de qualité. Responsabilités Définir les orientations techniques de la plateforme Big Data Encadrer et accompagner les équipes Data Engineering Optimiser les performances des traitements distribués (Spark, Hadoop) Assurer une veille technologique active et contribuer à la roadmap technique Garantir la sécurité, la fiabilité et l'évolutivité de la plateforme
CDI

Offre d'emploi
Data Scientist Confirmé F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
SQL
XGBoost

Issy-les-Moulineaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
PMO projets IA (F/H) – Domaine bancaire - Toulouse

CELAD
Publiée le

1 an
460-520 €
Toulouse, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Freelance / Portage salarial – 2 à 3 jours de télétravail / semaine - Toulouse - Au moins 6 ans d’expérience Envie de piloter l’impact réel de l’IA dans les organisations IT ? CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e PMO spécialisé.e en pilotage de projet IA pour maximiser l’impact de l’IA sur le cycle de développement logiciel. Le poste est basé à Toulouse Vous rejoignez un programme stratégique autour de l’IA générative, avec un enjeu clé : objectiver la valeur créée par l’IA dans les équipes IT . Votre rôle sera central pour mesurer, structurer et piloter la performance des initiatives IA, en apportant une vision claire du ROI et des impacts opérationnels . Vous interviendrez à la croisée de la data, des usages IT et des enjeux financiers . Voici un aperçu détaillé de vos missions : Définition et mesure des KPIs Identifier et formaliser les indicateurs clés pour mesurer l’impact de l’IA Suivre des axes tels que : productivité, qualité du code, vélocité, time-to-market Construire des référentiels de mesure fiables et exploitables Analyse de données quantitatives Collecter et exploiter des données issues de différents outils (CI/CD, Jira, Confluence, plateformes IA…) Croiser les sources pour identifier des corrélations et tendances Définir des baselines et mesurer les écarts de performance Analyse coûts / bénéfices – approche FinOps for AI Modéliser les coûts liés à l’usage de l’IA (tokens, licences, consommation cloud) Mettre en perspective ces coûts avec les gains opérationnels Construire des analyses de rentabilité claires et exploitables Restitution et aide à la décision Produire des supports de restitution orientés décision Présenter les résultats au top management de la DSI Formuler des recommandations pour optimiser les investissements IA Compétences nécessaires : Excellente capacité d’analyse quantitative et manipulation de données Bonne connaissance des environnements de développement logiciel (Jira, Confluence, Git, CI/CD…) Compréhension des modèles économiques Cloud et IA (approche FinOps , coût au token…) Capacité à modéliser des analyses ROI et business case Maîtrise d’outils de data visualisation (Power BI, Tableau) appréciée
Freelance
CDI

Offre d'emploi
Data Analyst Sur Le Havre

EterniTech
Publiée le
Elasticsearch
Microsoft Power BI
Qlik

3 mois
Le Havre, Normandie
Je cherche pour un de mes clients un Data Analyst / Data Engineer qui interviendra sur la définition, la mise en place et l’évolution de solutions de gestion de données , en assurant l’ingénierie, l’analyse et la valorisation des données pour répondre aux besoins métiers. Missions principales : Définir, mettre en place et faire évoluer des datalakes et datawarehouses Ingénierie et intégration de données pour le jumeau numérique et l’ IA Développer des modèles de data science adaptés aux besoins métiers Produire des tableaux de bord et valoriser les données via les outils BI ( Qlik, Microsoft Power BI ) Consolider et développer le catalogue de données existant Mettre en œuvre et optimiser des moteurs de recherche et d’indexation avancée ( Elasticsearch – expertise obligatoire ) Activités transverses : Analyser l’existant et conduire des ateliers méthodologiques Préconiser normes et standards technologiques Définir, dimensionner et chiffrer des solutions Mettre en œuvre des pipelines de données et des architectures big data Suivre la mise en œuvre et assister les équipes projet Assurer le transfert de compétences et l’accompagnement méthodologique Rédiger rapports d’études, cahiers des charges techniques et documentations Réaliser des audits et améliorer les processus Effectuer la veille technologique et fournir du conseil stratégique
Freelance

Mission freelance
[FBO] Product Owner Technique IA

ISUPPLIER
Publiée le
Docker
Large Language Model (LLM)
Openshift

3 ans
Île-de-France, France
Contexte Dans le cadre du développement et de l’industrialisation de services d’IA générative à destination de multiples entités métiers, nous recherchons un profil capable d’assurer l’ ownership technique d’un produit de type RAG as a Service . L’environnement s’inscrit au sein d’une organisation structurée autour d’une équipe d’environ 20 experts , répartis sur plusieurs pôles d’activité : Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office et Client Services . Le contexte technique comprend notamment : plus de 15 plateformes Data Science / MLOps en production , en environnements cloud et on premise ; une base de 600+ utilisateurs Data Scientists ; plusieurs infrastructures, plateformes et services d’ IA générative déjà en production ; un GRID de GPU on premise utilisé pour l’entraînement et l’inférence ; des pratiques établies de DevSecOps, GitOps, MLOps et LLMOps ; un fort niveau d’ automatisation autour des APIs d’infrastructure, des plateformes Kubernetes / OpenShift et des produits. Missions principales En tant que Technical Owner / Product Owner Technique , vous serez responsable de la cohérence technique, de la trajectoire produit et de la bonne exploitation du service. À ce titre, vos principales missions seront les suivantes : contribuer à l’ élaboration technique et fonctionnelle du produit IA qui vous sera confié, en lien étroit avec les équipes de Solutions Engineering pour la veille et l’évolution des usages, ainsi qu’avec les équipes DevSecOps pour son industrialisation ; garantir le respect des exigences de sécurité, conformité et confidentialité , ainsi que l’alignement avec les standards de production IT en matière d’ observabilité, auditabilité, traçabilité et contrôle des accès ; définir et mettre en œuvre les mécanismes techniques de gouvernance permettant aux entités utilisatrices ou à leurs équipes IT d’opérer le produit dans un cadre maîtrisé ; construire, maintenir et enrichir la feuille de route technique du produit afin d’assurer une création de valeur continue, en cohérence avec les besoins des utilisateurs et des métiers ; accompagner au quotidien les utilisateurs, interlocuteurs métiers et équipes IT , et veiller à la bonne adoption des bonnes pratiques d’usage du produit ; superviser les opérations critiques liées aux changements, déploiements et mises à jour, avec une vision de bout en bout des impacts sur les différents services gérés ; organiser et documenter la gestion des incidents , notamment via l’analyse des causes racines, la coordination inter-équipes et l’amélioration continue ; être force de proposition dans l’ optimisation des processus internes et dans l’alignement avec les autres équipes du domaine IA & Data ; représenter la relation technique avec les fournisseurs et partenaires contribuant à l’évolution du produit, qu’il s’agisse d’éditeurs, d’équipes d’industrialisation ou d’équipes d’infrastructure. Environnement technique Le poste s’inscrit dans un environnement technologique riche, comprenant notamment : Docker / Kubernetes / OpenShift frameworks de calcul distribué : Spark, Ray, Dask, OpenMPI GPU Computing : CUDA, Rapids, NIMs, NeMo environnements de Data Science : Python, Conda, R (optionnel) développement en Python Shell scripting MLflow / Kubeflow outils CI/CD, DevSecOps et GitOps : HashiCorp Vault, GitLab, GitLab CI, Artifactory, ArgoCD, Argo Workflows
Freelance

Mission freelance
Data Gouv Senior

Nicholson SAS
Publiée le
Confluence
Data analysis
Data Engineering

5 mois
550 €
Hauts-de-Seine, France
Nous recherchons pour notre client un Data Gouv Senior capable de fédérer et de piloter des instances : Rédaction et mise à jour des documents de gouvernance Data/IA (principes, référentiels, standards). Réorganisation, harmonisation et traduction (FR/EN) du fonds documentaire. Organisation des comités CDO / Data IA : invitations, ordres du jour, supports, comptes-rendus. Production des supports de communication ((intranet client), Teams, PowerPoint) Organisation d’évènements de la filière : plénières, challenges Data Science, ateliers. Collecte et consolidation des indicateurs mensuels de la filière. Rédaction du reporting mensuel d’activité. Compétences : Gouvernance des données Pilotage transverse / PMO et organisation de comités. Excellentes compétences rédactionnelles en français et bonne maîtrise de l’anglais. Communication interne, storytelling, animation de communautés. Maîtrise Microsoft 365 (PowerPoint, Excel, Teams, SharePoint). Connaissance de Confluence, Jira. Autonomie, rigueur, sens du détail et excellent relationnel.
Freelance
CDI

Offre d'emploi
Expert IA cybersécurité SOC sur Charenton Le Pont

EterniTech
Publiée le
Large Language Model (LLM)
RAG
SOC (Security Operation Center)

3 mois
Charenton-le-Pont, Île-de-France
Nous recherchons un expert en intelligence artificielle, capable de concevoir et développer des solutions IA spécialisées pour répondre à des besoins métiers spécifiques. Missions principales Concevoir et mettre en place des composants IA sur mesure (moteurs IA, modèles de données, automatisation de tâches métiers). Développer des solutions intégrant des technologies telles que : LLM (Large Language Models) RAG (Retrieval-Augmented Generation) Tester, valider et industrialiser (packaging) les solutions. Construire et déployer des offres de services IA “sur étagère” adaptées aux enjeux cybersécurité. Accompagner les équipes en expliquant les solutions mises en place et en structurant leur adoption. Profil recherché Minimum 5 ans d’expérience en IA / data avec un niveau senior. EXPERIENCE APPROFONDIE EN SOC SOC N2/N3 – Data & IA Dans le cadre de la sécurisation des plateformes Data & IA, la mission inclut un rôle de support avancé (N2/N3) au sein du SOC, avec les responsabilités suivantes : *Supervision et détection Assurer la surveillance des environnements Data & IA (data lakes, pipelines, modèles ML/IA) via les outils SOC (SIEM, EDR, XDR) Détecter les comportements anormaux liés aux usages de la donnée et des modèles (exfiltration, dérive, accès non autorisés) *Analyse et gestion des incidents Prendre en charge les incidents de sécurité de niveau 2/3 sur les périmètres Data & IA Réaliser les analyses approfondies (forensics, root cause analysis) en lien avec les équipes sécurité et data Piloter la remédiation et proposer des plans d’action adaptés *Sécurisation des environnements IA Identifier et traiter les vulnérabilités spécifiques aux systèmes IA/ML (modèle poisoning, data leakage, adversarial attacks) Participer à la mise en place de contrôles de sécurité sur les pipelines data et les cycles de vie des modèles (MLOps sécurisés) *Amélioration continue & use cases Développer et enrichir les règles de détection spécifiques aux usages Data & IA Contribuer à l’industrialisation des cas d’usage de détection (use cases SOC) Automatiser certaines réponses via SOAR ou scripts *Collaboration transverse Travailler en étroite collaboration avec les équipes Data, IA, DevOps et Cyber Accompagner les projets dans l’intégration des bonnes pratiques de sécurité (SecDevOps / DevSecOps appliqué à la data) *Veille & expertise Assurer une veille sur les menaces liées à l’IA et aux environnements data Apporter un rôle de référent technique sur les sujets de sécurité Data & IA au sein du SOC Expérience solide dans le domaine de la cybersécurité (connaissance des enjeux métier). Capacité à concevoir, challenger et déployer des solutions innovantes. Profil expert / référent, capable de structurer une offre et de la porter. Très bonne maîtrise de l’anglais professionnel. Informations complémentaires Démarrage : ASAP Durée : mission longue Environnement exigeant, nécessitant un profil autonome, pédagogue et orienté delivery.
Freelance
CDI

Offre d'emploi
Data Scientist

ONSPARK
Publiée le
Cloudera
Hadoop
Python

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Scientist pour accompagner nos clients grands comptes. Vous travaillerez sur des données massives et complexes, et contribuerez à des cas d'usage à fort impact : modèles de prévision, simulateurs, analyses statistiques avancées, détection de tendances, dans un environnement Big Data on-premise (Cloudera CDP, Cloudera Machine Learning) avec accès à des IDE modernes (Jupyter, RStudio, VSCode). Responsabilités Concevoir et entraîner des modèles de Machine Learning et Deep Learning Analyser des jeux de données complexes et volumineux Collaborer avec les Data Engineers pour la mise en production des modèles Accompagner les équipes métier dans l'interprétation des résultats Contribuer aux cas d'usage IA et NLP de la plateforme

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

440 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous