Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 394 résultats.
CDI

Offre d'emploi
Technical Lead IA

CAT-AMANIA
Publiée le
Angular
Java
Python

Île-de-France, France
La Plateforme Agentique constitue un pilier central de la stratégie IA de. Elle fournit un socle unifié pour créer, orchestrer, sécuriser et industrialiser les agents IA utilisés par les métiers. Elle repose notamment sur : * un Agent Registry et un Agent Gateway permettant le référencement, l’orchestration et la sécurisation des agents IA ; • des standards de gouvernance, workflows agentiques, règles SSI, conformité IA Act ; • des frameworks agentiques tels que Dust, Mistral, Dataiku ; • une intégration profonde au SI (APIs internes, data products, bus d’événements, services cloud) ; • des exigences fortes d’observabilité, de scalabilité et de conformité. Le Technical Lead IA jouera un rôle structurant pour garantir cohérence technique, industrialisation et excellence DevOps au sein de la plateforme.
CDI

Offre d'emploi
Ingénieur Devops Senior AZURE F/H

ASTRELYA
Publiée le
Ansible
Azure DevOps
Azure Kubernetes Service (AKS)

75008, Paris, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Composé de 300 experts passionnés, le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, du cadrage à la mise en production, avec une expertise reconnue en Data/IA, Cloud, DevOps et méthodes agiles. Notre modèle repose sur la proximité, la confiance et une culture humaine forte, où les collaborateurs sont au cœur de la création de valeur. Votre mission En tant qu’Ingénieur(e) DevOps Senior spécialisé(e) Azure, vous jouerez un rôle clé dans la conception, l’industrialisation et l’optimisation des plateformes Cloud de nos clients. Vous interviendrez sur des projets à forte valeur ajoutée, au cœur des enjeux de modernisation, d’automatisation et de fiabilisation des environnements de production. Concrètement, vous allez : · Concevoir, déployer et maintenir des architectures Cloud Azure robustes, scalables et sécurisées. · Mettre en place et optimiser des pipelines CI/CD (GitLab, GitHub Actions, Azure DevOps…). · Automatiser l’infrastructure via IaC (Terraform, Bicep, Ansible). · Industrialiser les environnements conteneurisés (Docker, Kubernetes / AKS). · Implémenter les bonnes pratiques DevSecOps (sécurité, conformité, scanning, secrets management). · Superviser et améliorer la performance, la résilience et la disponibilité des plateformes. · Accompagner les équipes de développement dans l’adoption des bonnes pratiques Cloud & DevOps. · Participer à la définition des standards d’ingénierie et à la diffusion de la culture Craft & SRE. Votre futur environnement technique · Cloud : Azure (AKS, App Services, Functions, Storage, Key Vault, APIM, Monitor…) · CI/CD : GitLab CI, GitHub Actions, Azure DevOps, Jenkins · Conteneurs : Docker, Kubernetes, Helm · Infrastructure as Code : Terraform, Ansible, Bicep · Sécurité : DevSecOps, scanning, Azure Defender, secrets management · Observabilité : Prometheus, Grafana, Azure Monitor, ELK · Automatisation & scripting : PowerShell, Bash, Python
CDI
Freelance

Offre d'emploi
Chef de Projet MOE

Ela Technology
Publiée le
Intune
Office 365
OS Windows

6 mois
Villejuif, Île-de-France
Vos missions principales Piloter les projets du poste de travail (montées de version, évolutions, intégration…). Gérer les incidents projets et assurer le suivi auprès des équipes techniques. Coordonner les fournisseurs et partenaires (GIE, équipes support…). Gérer les demandes d’évolution & les chantiers d’obsolescence . Piloter les déploiements applicatifs et systèmes. Vous serez également responsable de : L’analyse de l’existant et l’estimation des charges. Les tests unitaires, l’intégration, l’accompagnement recette et MEP. La maintenance en conditions opérationnelles : suivi de production, gestion des incidents, documentation, demandes IT/métier. La veille technologique et la réalisation d’études sur des sujets innovants pour la banque.
Freelance
CDI

Offre d'emploi
Data Engineer Senior Snowflake (Lead / Mentoring)

UCASE CONSULTING
Publiée le
AWS Cloud
Qlik
Snowflake

1 an
40k-45k €
400-650 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous 😃 🔎 Contexte Dans le cadre du déploiement de Snowflake au sein de l’équipe Data, notre client recherche un Data Engineer expérimenté pour accompagner la montée en compétence des équipes, structurer l’architecture cible et intervenir sur des chantiers clés (migration & ingestion) 🎯 Objectifs de la mission 1. Accompagnement & montée en compétence Accompagner les équipes dans la prise en main de Snowflake Animer / coanimer des ateliers et diffuser les bonnes pratiques Faciliter l’appropriation des nouveaux workflows et outils 2. Architecture & structuration Concevoir et documenter l’architecture cible Snowflake Mettre en place et optimiser les pipelines d’ingestion et de transformation Garantir la performance, la scalabilité et la robustesse des traitements 3. Gouvernance & qualité de données Définir les règles de gouvernance (rôles, accès, organisation des environnements) Mettre en place des standards de développement (naming, versionning, documentation) Implémenter des processus de data quality (tests automatisés, contrôles de cohérence, fraîcheur…) Mettre en place des mécanismes de data observability et d’alerting Documenter les processus de gestion des incidents 4. Missions opérationnelles Participer à la migration de data products (Athena → Snowflake) Contribuer à l’ingestion et la structuration de nouvelles sources de données 🔧 Must have Expérience significative en tant que Data Engineer Expertise Snowflake (indispensable) Solide maîtrise SQL (optimisation, performance) Expérience en ingestion de données et/ou migration de plateformes data Connaissances en data quality et gouvernance Capacité à accompagner des équipes (pédagogie, mentoring) ➕ Nice to have Expérience sur AWS Connaissance de Qlik Expérience en environnement data moderne (pipelines, orchestration, CI/CD…) Contexte conseil / ESN Expérience sur des sujets de data observability 📍 Modalités Démarrage : Avril 2026 Localisation : Lyon Télétravail : 3 jours sur site/2 jours de TT
CDI

Offre d'emploi
Data Scientist sénior F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
Flask
Scikit-learn

Montpellier, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Lead dev Java/GCP/IA

Codezys
Publiée le
API
Hibernate
IA Générative

12 mois
380-400 €
Lille, Hauts-de-France
Le Challenge : Scalez l'expérience produit d'un leader mondial Votre mission se divise en deux volets : Assurer la direction technique du développement de produits digitaux critiques. Instaurer une culture d'excellence au sein d'une équipe agile. Compétences techniques "Core" (Indispensables) Maîtrise avancée de Spring Modulith : Il ne s'agit pas simplement d'un backend, mais d'un "Monolithe Modulaire" . Le lead développeur doit garantir une isolation stricte des modules (Catalog, Configurator, Rules, Nomenclature) ainsi que leur communication via des API internes (ex : CatalogAPI, NomenclatureAPI). Expertise avancée en Hibernate / PostgreSQL : Le projet exploite intensément les champs JSONB natifs de PostgreSQL, mappés en Java grâce à la librairie Hypersistence Utils (@Type(JsonBinaryType.class)). Utilisation de stratégies d'héritage complexes, telles que l'inheritance par table unique (Single Table Inheritance) avec @DiscriminatorColumn pour le moteur de règles. Architecture de cache distribué (Redis) : Le cache Redis (CpsItemResponse) est partagé avec un autre microservice (cpq-core-backend). Le lead devra maîtriser les enjeux liés à la sérialisation/désérialisation et à l'invalidation du cache partagé, sans impacter la production. Qualité et tests (TDD/BDD) : Validation rigoureuse des spécifications via OpenAPI. Réalisation de tests d'intégration en utilisant TestContainers (PostgreSQL) et Wiremock. Objectifs et livrables Compétences techniques spécifiques Intégration de l'IA Générative (Spring AI & Vertex AI) : Constitue le cœur innovant du projet. Le lead ne se limitera pas à des API CRUD mais devra interagir avec le ChatClient de Spring AI connecté à Gemini (Vertex AI). L'IA intervient directement dans le métier (génération de règles de compatibilité, analyse en langage naturel, génération dynamique de requêtes SQL). La compétence en ingénierie de prompt (PromptBuilder) associée au code Java est essentielle. Versioning avancé de données complexes : Le système de règles métiers possède son propre moteur de gestion de versions (concepts de parentRuleId, isLatestVersion, cycle de vie DRAFT/ACTIVE). La capacité à gérer efficacement les états et les cycles de vie est indispensable. Appétence pour l'algorithmie : Le système de règles calcule via un algorithme de tri topologique. Un esprit logique, rigoureux et curieux est requis pour maîtriser cette complexité.
Freelance

Mission freelance
Data ingénieur BI/SQL

INFOTEL CONSEIL
Publiée le
Microsoft Power BI
Microsoft SQL Server
Microsoft SSIS

6 mois
500-580 €
Paris, France
Un profil avec des connaissances sur les technologies Microsoft BI (SSIS, SSRS et SSAS) ainsi que la maitrise du SQL, doté d’un bon relationnel et ayant la volonté de travailler en équipe. Le profil devra avoir une capacité et une volonté de montée en charge et disposer d’un sens logique avancé. Par ailleurs il devra maitriser les composantes suivantes : • DataViz : rapports dynamiques et Power BI • Datawarehouse : conception et modélisation (y compris cube tabulaires) • Base de Données : SQL Server • ETL/ELT: SSIS Description détaillée des tâches qui incombent : o Migration entrepôt legacy BDD (800 tables) o Migration Datahub BDD (900 tables) o Migration des ETL SSIS (633 packages) o Migration de procédures stockées (1550 ps) o Migration DataViz SSRS, SSAS et power bi (300 rapports)
CDI

Offre d'emploi
Développeur Full Stack (H/F)

IA Soft
Publiée le
.NET CORE
Angular
Java

1 an
40k-45k €
400-550 €
Île-de-France, France
1. Intitulé du poste Développeur Full Stack (H/F) 2. Mission principale Le Développeur Full Stack conçoit, développe, teste et maintient des applications web ou logicielles en intervenant à la fois sur la partie front-end et back-end . Il participe à l’ensemble du cycle de vie des projets techniques, de l’analyse du besoin jusqu’à la mise en production, en veillant à la performance, à la sécurité et à la qualité du code. Il travaille en étroite collaboration avec les équipes produit, design, QA et infrastructure afin de livrer des solutions robustes, évolutives et adaptées aux besoins métiers. 3. Responsabilités principalesDéveloppement applicatif Concevoir et développer des fonctionnalités front-end et back-end. Participer à l’architecture technique des applications. Développer et maintenir des API, services et interfaces utilisateurs. Assurer l’intégration entre les différentes couches de l’application. Veiller à la qualité, à la lisibilité et à la maintenabilité du code. Maintenance et amélioration continue Corriger les anomalies et résoudre les incidents techniques. Optimiser les performances des applications. Participer aux évolutions techniques et fonctionnelles des produits. Assurer la maintenance corrective et évolutive des solutions existantes. Contribuer à la réduction de la dette technique. Qualité et sécurité Réaliser les tests unitaires, tests d’intégration et revues de code. Appliquer les bonnes pratiques de développement sécurisé. Veiller à la conformité du code avec les standards de l’entreprise. Participer à la documentation technique des applications. Garantir la fiabilité, la stabilité et la sécurité des développements. Travail en équipe Collaborer avec les Product Owners, UX/UI designers, DevOps et QA. Participer aux cérémonies Agile : sprint planning, daily meeting, rétrospectives, démos. Estimer la charge de développement et contribuer à la planification. Partager les connaissances techniques au sein de l’équipe. 4. Profil recherchéFormation Bac+3 à Bac+5 en informatique, développement logiciel ou équivalent. Une spécialisation en développement web, génie logiciel ou systèmes d’information est un plus. Expérience Expérience de 5 à 7 ans minimum en développement full stack. Expérience dans la réalisation d’applications web ou plateformes métiers. Une expérience en environnement Agile / Scrum est appréciée. 5. Compétences requisesCompétences techniques Bonne maîtrise des technologies front-end : HTML, CSS, JavaScript / TypeScript. Bonne maîtrise d’au moins un framework front-end : React, Angular, Vue.js ou équivalent. Bonne maîtrise des technologies back-end : Node.js, Java, .NET, PHP, Python ou équivalent. Expérience avec les API REST / GraphQL. Bonne connaissance des bases de données relationnelles et/ou NoSQL : PostgreSQL, MySQL, MongoDB, etc. Maîtrise des outils de versioning, notamment Git. Connaissance des environnements CI/CD, Docker, cloud ou DevOps appréciée. Sensibilité aux enjeux de cybersécurité, performance et scalabilité. Compétences comportementales Esprit d’analyse et de résolution de problèmes. Rigueur, autonomie et sens de l’organisation. Capacité à travailler en équipe et à communiquer efficacement. Curiosité technique et veille technologique active. Force de proposition et orientation qualité. 6. Objectifs du poste Développer des applications fiables, performantes et évolutives. Répondre aux besoins fonctionnels dans le respect des délais. Garantir un haut niveau de qualité technique et de sécurité. Participer à l’amélioration continue des outils, méthodes et architectures.
Alternance
CDI

Offre d'emploi
Data scientist (38972) (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Chappes, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Engineer Teradata/Python/Hadoop/Unix

OBJECTWARE
Publiée le
Hadoop
Python
Teradata

3 ans
40k-70k €
400-550 €
Île-de-France, France
La tribu « CRM » est en charge du parc applicatif dédié à la mise en œuvre et au suivi de l’ensemble de la relation client-banque et des outils de conformité (fraude, lutte contre le blanchiment et financement du terrorisme). La mission consiste à assurer les fonctions suivantes au sein de la Squad Conformité et Sécurité Financière : • vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel (Teradata) • TPT • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Spark • HDFS • Python • Hadoop
Freelance

Mission freelance
Chef de Projet MOE – Déploiement IA Générative (H/F)

CAT-AMANIA
Publiée le
Gestion de projet
IA
JIRA

2 ans
Nantes, Pays de la Loire
Description de la mission Dans le cadre d'une transformation numérique d'envergure pour un acteur public majeur, nous recherchons un Chef de Projet MOE Senior pour piloter le déploiement opérationnel de l’IA Générative. Après une phase d'expérimentation réussie, le projet entre dans sa phase de généralisation (2 ans, 3 lots successifs). Votre rôle sera de transformer l'essai en déployant des solutions concrètes (Copilot, Swiftask, Jalios JNLP) auprès de plus de 1000 agents, tout en structurant l'offre d'accompagnement et de formation. Vos principales responsabilités : Pilotage Opérationnel : Cadrage des lots, gestion du planning, suivi des tâches et coordination des comités de suivi. Déploiement Technique & Fonctionnel : Paramétrage des solutions IA, phases de recette et mise en œuvre des outils cibles. Conduite du Changement : Construction et animation du dispositif d’accompagnement (ateliers, formations, ressources digitales). Communication Institutionnelle : Interventions en CODIR pour présenter l'avancement et les enjeux stratégiques. Animation d’Écosystème : Mobilisation des expertises internes et participation à l'observatoire des usages IA.
Freelance

Mission freelance
DEVELOPPEUR SENIOR DYNAMICS 365

Atlas Connect
Publiée le
API
Azure Data Factory
C#

6 mois
500-550 €
Paris, France
🎯 Contexte de mission Dans le cadre de la digitalisation de ses processus métier et de l’évolution de sa plateforme CRM cloud, nous recherchons un Développeur Senior Dynamics 365 capable de concevoir, développer et maintenir des solutions robustes autour de Dynamics 365 et des services Azure. La mission s’inscrit dans un environnement international, exigeant et fortement orienté innovation, avec des enjeux autour de l’automatisation, de l’intégration des systèmes et de l’optimisation des parcours utilisateurs. 🛠️ Missions principales et rôle Développer et personnaliser les composants Dynamics 365 : formulaires, workflows, plugins, JavaScript/jQuery, traitements C# et SQL Concevoir et développer des Azure Functions (HTTP triggers, TimerTriggers, files d’attente, etc.) Intégrer des contrôles PCF et configurer les différents modules Dynamics 365, notamment Sales et Customer Service Automatiser les tâches utilisateurs, les notifications et certains traitements métiers Réaliser des analyses de bugs et assurer leur résolution Étudier la faisabilité des demandes métier et proposer des solutions techniques adaptées Concevoir des architectures fonctionnelles évolutives et documentées Mettre en place et maintenir les pipelines CI/CD ainsi que les processus de release Gérer les branches de code, les déploiements et les environnements Dev, UAT et Production Administrer les ressources Azure : Functions, Queues, Topics, Data Factory, Blob Storage Assurer les intégrations avec des systèmes tiers tels que des applications web, outils marketing, backoffice ou solutions de téléphonie Superviser la production et apporter un support aux utilisateurs Assurer la coordination avec les éditeurs et partenaires techniques pour la gestion des incidents Gérer les dépôts Git et garantir la qualité des livrables 🚀 Objectifs Faire évoluer et stabiliser la plateforme Dynamics 365 Optimiser les processus métiers grâce à l’automatisation et aux intégrations Garantir la fiabilité, la performance et la maintenabilité des développements Fluidifier les échanges entre Dynamics et les systèmes tiers Sécuriser les déploiements via des pratiques CI/CD robustes Accompagner les équipes métier dans leurs besoins d’évolution et d’amélioration continue 💡 Compétences requises Excellente maîtrise de Dynamics 365 CRM Expertise en développement C#, JavaScript et SQL Bonne connaissance des modules Sales et Customer Service Maîtrise des services Azure : Functions, Storage, Data Factory, Queues, Blob Storage Expérience confirmée sur les pipelines CI/CD et la gestion des environnements Solides compétences en architecture technique et documentation Maîtrise des outils de gestion de code source Git Expérience des intégrations avec des systèmes tiers et APIs Capacité à intervenir sur des problématiques de production et de support
Freelance

Mission freelance
SAP Data Migration Manager – End-to-End

Xcede Limited
Publiée le
Data management
Data Strategy
Migration

12 mois
Paris, France
Nous recherchons un Responsable de la Migration de Données SAP parlant français et anglais pour piloter les activités de migration de données de bout en bout dans le cadre d’un programme stratégique SAP ! Responsabilités Définir et piloter la stratégie de migration des données SAP Gérer l’ensemble du cycle de vie de la migration : extraction, nettoyage, mapping, conversion, chargement et validation des données Coordonner les équipes fonctionnelles, techniques et métiers Garantir la qualité, la cohérence et l’intégrité des données Superviser les outils et méthodologies de migration Suivre les risques, les délais et les livrables liés aux données Une expérience en PLM (Product Lifecycle Management) est un plus. Si cette opportunité vous intéresse, envoyez votre CV à ou cliquez sur « Postuler maintenant » !
Freelance
CDI

Offre d'emploi
Data Engineer Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.
Freelance

Mission freelance
246359/Devops IA Bordeaux

WorldWide People
Publiée le
IA

3 mois
350 €
Bordeaux, Nouvelle-Aquitaine
Devops IA Bordeaux Minimum 5 ans d'expérience requis sur ce poste Compétences techniques requises : - Maîtrise DevOps avancée : Expertise confirmée sur Kubernetes, Docker, Helm et la gestion de pipelines complexes. - Infrastructure as Code : Très bonne connaissance d'outils comme Terraform. - Software Engineering : Solides bases en développement (designs patterns, bonnes pratiques de dev, archi logicel, tests...) en Python prioritairement. - Systèmes et Cloud : Bonne maîtrise des environnements Linux et des services Cloud (Azure) liés au calcul et au stockage. - BONUS : Connaissance MLOps et services Cloud (Azure prioritairement) Au sein de l'équipe, vous mettrez vos compétences au service de l'IA. Objectifs et livrables Vous serez notamment charge de : - Conception et gestion de la plateforme IA: Administrer et optimiser les clusters (Kubernetes) et les ressources de calcul (GPU/CPU). - Industrialiser le déploiement des environnements hors prod et prod via de l'infrastructure as code. - Mise en place de CI/CD pour les applicatifs de l'IA. - Monitoring et Observabilité: Déployer des outils de supervision avancés pour garantir la haute disponibilité des services IA et le suivi des performances système. - Optimisation et FinOps: Piloter la consommation des ressources cloud/on-premise pour rationaliser les coûts liés à IA. - Expertise technique: Accompagner les MLOps de l'équipe dans l'adoption des meilleures pratiques DevOps et assurer une veille technologique. Minimum 5 ans d'expérience requis sur ce poste Le profil recherché est un expert de l'infrastructure possédant une forte culture logicielle pour dialoguer avec les équipes data et datascience, et un intérêt pour le domaine de l'intelligence artificielle. Compétences techniques requises : - Maîtrise DevOps avancée : Expertise confirmée sur Kubernetes, Docker, Helm et la gestion de pipelines complexes. - Infrastructure as Code : Très bonne connaissance d'outils comme Terraform. - Software Engineering : Solides bases en développement (designs patterns, bonnes pratiques de dev, archi logicel, tests...) en Python prioritairement. - Systèmes et Cloud : Bonne maîtrise des environnements Linux et des services Cloud (Azure) liés au calcul et au stockage. - BONUS : Connaissance MLOps et services Cloud (Azure prioritairement) Compétences demandées Compétences Niveau de compétence MLOps Élémentaire Python Confirmé Kubernetes Confirmé IA Avancé Docker Confirmé
Freelance
CDI

Offre d'emploi
Data Scientist ‒ Fraud & Payment Analytics

Ela Technology
Publiée le
Machine Learning
Python
SQL

6 mois
Paris, France
Dans le cadre du renforcement des dispositifs de sécurisation des paiements électroniques et de la lutte contre la fraude, il est recherché un Data Scientist capable d’intervenir sur des problématiques de détection de fraude bancaire, scoring et authentification forte, analyse massive de données transactionnelles et optimisation de modèles prédictifs en environnement critique. Le poste s’inscrit dans un contexte à forts enjeux réglementaires et opérationnels, avec des traitements en temps réel et des volumes de données importants. Le contexte fonctionnel couvre : Paiement électronique & cartes bancaires Lutte contre la fraude Authentification forte Conformité réglementaire Analyse de risques transactionnels 🧩 MissionsAnalyse & Modélisation Analyse exploratoire et statistique de données transactionnelles massives Conception et amélioration de modèles de Machine Learning pour la détection de fraude Feature engineering sur données temporelles et comportementales Optimisation des performances des modèles (précision, recall, stabilité) Industrialisation & Production Déploiement et suivi de modèles de scoring en environnement de production Monitoring des performances des modèles (drift, précision, recall) Automatisation des traitements et du reporting analytique Participation à l’amélioration continue des pipelines data Collaboration métier Interaction avec les équipes sécurité, fraude et conformité Traduction des besoins métier en solutions data Création de tableaux de bord et visualisations exploitables par les métiers Documentation et présentation des résultats 🛠️ Environnements techniquesLangages & Data Science Python R SQL Machine Learning & IA Scikit-learn XGBoost / LightGBM / Random Forest PyTorch (optionnel) Approches RAG / NLP (bonus) Data Engineering & Big Data PySpark Écosystème Hadoop Traitements batch et temps réel Data & Visualisation Power BI Pandas NumPy Excel avancé Environnements complémentaires Elasticsearch PostgreSQL API Data / JSON Industrialisation de modèles ML Outils métiers (paiement / fraude) Plateformes de scoring temps réel (type Feedzai ou équivalent) Outils d’authentification forte Analyse comportementale fraude

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

4394 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous