Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 82 résultats.
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Mission freelance
Product Manager Data (H/F)
Publiée le
Product management
12 mois
France
Nous recherchons des Product Managers Data pour piloter des produits et plateformes data à fort impact business. En lien étroit avec les équipes Data, Tech, Métiers et BI , vous serez responsable de la vision produit, de la priorisation des besoins et de la livraison de solutions data créatrices de valeur. Vos missions pourront inclure : Définition de la vision produit Data et de la roadmap associée Recueil et formalisation des besoins métiers liés à la data Priorisation du backlog (use cases data, features, dette technique) Collaboration étroite avec les équipes Data Engineers, Analytics, Data Science Suivi de la delivery et mesure de la valeur business générée Mise en place de KPIs , data products et indicateurs de performance Contribution à la gouvernance data et aux bonnes pratiques produit
Mission freelance
DATA SCIENTIST MLOPS
Publiée le
IA Générative
Machine Learning
MLOps
3 ans
100-550 €
Lille, Hauts-de-France
Télétravail partiel
Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques. Profil recherché 4+ ans d’expérience en Data Science/MLOps
Offre d'emploi
Data Engineer — profil “solution & impact”
Publiée le
Data analysis
Dataiku
RPA (Robotic Process Automation)
2 ans
40k-45k €
400-500 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Chers consultants, Nous recherchons actuellement, pour un client du secteur de l’assurance basé à Niort , un Data Engineer – profil “solution & impact” . 🎯 Finalité du rôle Un data engineer orienté solutions, capable de répondre à des problématiques métiers concrètes , et pas un simple exécutant technique. 🧠 ADN du profil recherché • Force de proposition, capable de challenger un besoin • Capable de comprendre le pourquoi , pas uniquement le comment • À l’aise dans des environnements data orientés valeur métier 🛠️ Compétences clés • Dataiku (ou plateforme data science équivalente) : – conception de pipelines – optimisation des flux – industrialisation des traitements • Vision end-to-end des chaînes data : – ingestion → transformation → exposition – performance, qualité et maintenabilité 🤝 Posture attendue • Capacité à dialoguer avec un chef de projet data • Compréhension des enjeux métiers • Proposition d’architectures et de choix techniques adaptés 👉 En résumé Un Data Engineer senior , orienté valeur métier, capable de concevoir des solutions data robustes et utiles — pas seulement du code propre. 📍 INDISPENSABLE : présence sur site à Niort minimum 3 jours par semaine.
Mission freelance
Data Engineer DevOps - Cloud Public
Publiée le
Kubernetes
Microsoft SQL Server
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de l’accompagnement de projets DATA stratégiques et du run sur un périmètre services financiers , notre client renforce ses équipes avec un Data Engineer DevOps dans un contexte cloud public (AWS / GCP) . Vos missions🔹 Projets DATA Contribuer à la conception, au développement et à l’industrialisation des pipelines data Participer aux projets data analytics, data engineering et data platform Mettre en œuvre les bonnes pratiques DataOps / DevOps Collaborer étroitement avec les équipes Data Science, BI et métiers 🔹 Run & Exploitation Assurer le maintien en conditions opérationnelles des plateformes data Gérer les incidents, les performances et la fiabilité des traitements Participer à l’optimisation des coûts et des performances cloud Mettre en place et maintenir le monitoring et l’observabilité 🔹 DevOps & Cloud Automatiser les déploiements et l’infrastructure (IaC) Sécuriser et fiabiliser les environnements Participer à l’évolution des architectures data cloud
Offre d'emploi
Data product Manager IA
Publiée le
IA
IA Générative
Machine Learning
1 an
48k-58k €
340-540 €
Paris, France
Télétravail partiel
Fort d’une maturité croissante sur ces sujets, notre client lance en 2026 un programme stratégique IA composé d’environ 40 projets et produits, avec pour ambition d’accélérer sa capacité à délivrer des solutions à forte valeur ajoutée. Dans ce cadre, un accompagnement est recherché pour accompagner le développement de produits dédiés à l’efficacité commerciale. Mission : Piloter le développement des produits IA/ML orientés performance commerciale, en lien avec la Direction du Développement Commercial. Identifier et prioriser les cas d’usage à fort impact business (segmentation, scoring, prédiction, churn, valeur client BtoB/BtoC), pour construire une backlog orientée valeur. Assurer, en lien avec l'équipe Data Science, la reprise et la création d’algorithmes de Machine Learning, en garantissant leur robustesse, leur pertinence métier et en s'assurant du respect du processus de gouvernance (Validation des cas d'usages par les instances dédiées, Documentation des produits au niveau attendu, anticipation de la phase d'industrialisation le cas échéant,...). Coordonner la mise en oeuvre de la roadmap produit avec les équipes Data Science, IT, Architecture et Sécurité, en anticipant les jalons, les mises en production et les validations de performance. Mettre en place des mécanismes automatisés de mesure de la valeur produit (performances des modèles, adoption, satisfaction métier) et améliorer la datavisualisation des usages pour suivre l’impact business. Animer et structurer la gouvernance du produit et préparer les livrables à destination du Sponsor pour arbitrages éventuels (COPIL, Report au programme IA,....). livrables : 1. Gouvernance & pilotage produit - Production des supports d’animation des instances (COPIL, COMOP, ateliers de travail) et rédaction des comptes rendus associés - Animation des ateliers de recensement des besoins et d’alignement stratégique avec les métiers - Suivi des budgets dédiés aux projets et réalisation du reporting 2. Construction de la valeur produit - Contribution active à la formation des besoins et problématiques métiers à adresser grâce à l'IA / ML - Contribution active à la définition des features et améliorations nécessaires pour délivrer la valeur métier ; pour des projets en construction ou dans le cadre de l'évolution de produits déjà en run - Participation aux phases de recette fonctionnelle en lien avec les métiers et les data scientists. La pédagogie est primordiale - Appropriation des composants technologiques sous-jacents, en lien avec les architectes, afin de mieux évaluer leur impact sur la performance produit. 3. Structuration du delivery produit - Développement et mise à jour de la roadmap et de la backlog produit, en priorisant la valeur métier. - Support à l’équipe produit sur les sujets transverses : qualité, gouvernance, gestion des risques, et coordination avec la DSI. - Reprise du cycle de vie des produits de scoring en production et dédiés au développement commercial 4. Animation & acculturation IA - Animation de l’équipe produit (métier, DSI, Data, Dev front, etc.) sur les cas d’usage en phase d’exploration ou d’incubation. - Mise en oeuvre du plan de communication autour des produits le cas échéant. - Animation de la veille autour des sujets
Mission freelance
Data Architect GCP
Publiée le
Apache
Apache Airflow
Apache Spark
12 mois
540-600 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
L’objectif principal est la conception et la mise en œuvre d’un Data Lake moderne sur GCP , basé sur une architecture Médaillon (Bronze / Silver / Gold) et s’appuyant sur Apache Iceberg , avec la capacité de détacher une brique autonome pour certains clients manipulant des données sensibles. Missions principalesArchitecture & Data Platform Concevoir et mettre en place un Data Lake sur GCP basé sur Apache Iceberg Définir et implémenter une architecture Médaillon (ingestion, transformation, exposition) Participer aux choix d’architecture pour une brique data autonome dédiée aux données sensibles Contribuer à l’ internalisation de la plateforme data (design, outillage, bonnes pratiques) Data Engineering Développer des pipelines d’ingestion pour : Données capteurs issues de drones Données tabulaires associées Gérer des pics de charge importants (jusqu’à 10 Go ingérés simultanément) Garantir la disponibilité rapide des données après les vols d’essai Mettre en place des contrôles de qualité, traçabilité et gouvernance des données Data & Analytics Préparer les données pour des cas d’usage de maintenance prédictive Optimiser les performances de lecture et d’écriture (partitionnement, schéma, versioning) Collaborer avec les équipes data science / métier Sécurité & conformité Travailler dans un contexte habilitable (données sensibles, clients spécifiques) Appliquer les contraintes de sécurité et de cloisonnement des données
Mission freelance
Data Engineer/Architect Apache Iceberg (Marseille 3j)
Publiée le
Apache
Google Cloud Platform (GCP)
Python
6 mois
600-620 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer/Architect(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de la fabrication et la commercialisation des drones. Description 🧭 Contexte de la mission Dans un contexte de forte croissance des usages data autour de données issues de capteurs drones , la mission vise à concevoir et structurer une plateforme data internalisée , capable d’absorber des volumes importants de données hétérogènes (temps réel et batch), tout en répondant à des enjeux de sensibilité des données clients et de maintenance prédictive . 🛠️ Missions principales et rôle Concevoir et mettre en place un Data Lake basé sur une architecture médaillon (Bronze / Silver / Gold) Gérer l’ingestion et le stockage de données capteurs drones et de données tabulaires Mettre en œuvre une architecture data basée sur Apache Iceberg Garantir la disponibilité rapide des données après les vols d’essai Participer à la conception d’une brique data autonome , isolable pour les cas de données sensibles clients Contribuer à l’ internalisation de la plateforme data Traiter des pics de charge importants (jusqu’à 10 Go de données arrivant simultanément) Collaborer avec les équipes plateforme et data science sur les cas d’usage de maintenance prédictive 🎯 Objectifs Centraliser et fiabiliser les données drones dans un Data Lake scalable et robuste Permettre une exploitation rapide des données post-vol Sécuriser et isoler certaines données selon les contraintes clients Préparer les données pour des usages avancés (analytique, maintenance prédictive)
Offre d'emploi
Data Steward
Publiée le
Data analysis
Gouvernance
1 an
40k-45k €
120-490 €
Paris, France
Télétravail partiel
Contexte Une filiale d'un groupe bancaire majeur spécialisée dans le financement de biens d'équipement ou de biens immobiliers à destination des entreprises. Son activité est répartie sur plusieurs pays, et sur plusieurs types de financement : crédit, crédit-bail mobilier et immobilier, location, wholesale, LLD avec gestion de parc, revolving, …. Le projet STELLAR a pour objectif de mettre la data science et les outils d'IA au service de use cases Métier, en assurant la mise en oeuvre de ces use case de la phase exploratoire jusqu'à la phase d'industrialisation. Par exemple sur le use case AVE de refonte de l'application de valorisation avancée de matériels que nous finançons. Dans le cadre de la mise en œuvre de ce chantier, l'équipe Stellar recherche un data steward pour produire la documentation associée à la data gouvernance: Data Model (Business et IT), Data Dictionnary et classification des données sensibles (Data Asset Confidentiality Card). Analyse et alignement du périmètre métier En lien avec les référents métiers : Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Compréhension des processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Cartographie des objets métier à définir Identification des données métier Construction du modèle de données et documentation Classification en concepts et sous concepts Classification du niveau de confidentialité Documentation des données : définitions, attributs, relations, règles de gestion métier. Production des modèles de données métier et IT Collaboration étroite avec le Data Office pour valider les jeux de données existants, identifier les manques, assurer l'alignement avec les standards de gouvernance, traçabilité et qualité. Contribution à la modélisation des données non encore prises en charge par la data platform Gouvernance des données Animation des ateliers avec les référents métiers et les IT pour valider les définitions. Assurer la traçabilité entre modèles métier et technique.
Offre d'emploi
Administrateur(trice) Dataiku DSS - LUXEMBOURG
Publiée le
Dataiku
Python
Scripting
6 mois
Luxembourg
Mission au Luxembourg. Il est impératif et obligatoire de résider ou être proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Proposition de l'architecture a mettre en place Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée
Mission freelance
Data Product Manager
Publiée le
SQL
6 mois
500-600 €
Rennes, Bretagne
Télétravail partiel
Dans le cadre du renforcement de son Data Lab , un grand groupe souhaite s’appuyer sur un Data Product Manager freelance afin d’accompagner la conception, le cadrage et la mise en œuvre de produits data à forte valeur métier. La mission s’inscrit dans un environnement data transverse et innovant , couvrant des sujets variés tels que la Data Science, la modélisation de données, les tableaux de bord décisionnels, l’IA générative et l’automatisation de processus métier . L’enjeu central de la mission consiste à jouer un rôle pivot entre les métiers et les équipes techniques , en traduisant des besoins business parfois complexes en solutions data concrètes, rapidement testables et industrialisables. Le poste dépasse le simple pilotage de planning : il requiert une compréhension fine des problématiques data et techniques , ainsi qu’une capacité à contribuer opérationnellement aux livrables. Responsabilités Cadrage & spécifications (cœur de mission) Recueillir et analyser les besoins métiers, puis les traduire en spécifications fonctionnelles claires et structurées . Rédiger les spécifications techniques à destination des équipes Data (modélisation, règles de gestion, hypothèses de calcul). S’assurer de la viabilité technique des demandes au regard de la stack data existante. Pilotage & contribution opérationnelle Gérer et prioriser le backlog produit en fonction de la valeur business. Travailler en mode itératif / MVP , avec une logique de test rapide et d’amélioration continue. Réaliser les recettes fonctionnelles et techniques , notamment via des requêtes SQL pour valider les livrables avant restitution aux métiers. Prototyper des dashboards simples afin de matérialiser rapidement les usages. Participer activement à la structuration et à l’amélioration des pratiques du Data Lab .
Offre d'emploi
DATA ENGINEER AZURE DATABRICKS
Publiée le
Azure
Databricks
3 ans
40k-45k €
450-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client nous recherchons un data engineer Azure databtricks. Contexte Vous intervenez sur des plateformes Big Data à forte volumétrie , orientées Lakehouse, nécessitant des traitements distribués, performants et hautement scalables. Missions principales Concevoir et maintenir une architecture Lakehouse Databricks Développer des pipelines de données distribués avec Spark Mettre en place des tables fiables et gouvernées via Delta Lake Construire et maintenir des pipelines automatisés avec Delta Live Tables Exposer les données via SQL Warehouse pour les usages BI et analytiques Optimiser les performances, la qualité et la scalabilité des traitements Travailler en étroite collaboration avec les équipes Data Science et BI Stack technique Databricks : Lakehouse, Delta Lake, Delta Live Tables, SQL Warehouse Azure : ADLS Gen2, services d’intégration Azure Langages : Python, SQL, Spark DataOps / MLOps : CI/CD, orchestration, monitoring Architecture : Big Data distribué, streaming et batch Compétences requises Solide expertise Spark / Databricks Maîtrise des concepts Big Data et des environnements à forte volumétrie Très bonne connaissance de Python et SQL Capacité à concevoir des architectures complexes et robustes Profil recherché Formation en informatique / data 4+ ans d’expérience en Data Engineering Big Data Forte capacité d’analyse et de résolution de problèmes À l’aise dans des environnements complexes et exigeants
Offre d'emploi
Databricks Data Engineer
Publiée le
API REST
PySpark
1 an
Île-de-France, France
Télétravail partiel
Descriptif du poste Expert reconnu en plateforme de données et architecture Lakehouse, incluant : Optimisation Spark / PySpark (AQE, broadcast joins, stratégies de caching, autoscaling de cluster). Politiques de cluster, configuration de cluster et pool, et optimisation des coûts. Monitoring, diagnostics et dépannage des performances à l'aide de métriques et event logs. APIs REST et CLI pour l'automatisation. Expert reconnu en utilisation de Delta Lake, incluant : Pipelines d'ingestion et de transformation (Bronze–Silver–Gold). Delta Live Tables pour les pipelines de production (CDC, expectations, orchestration). Structured streaming et traitement incrémental. Débogage des goulots d'étranglement de performance dans les workloads Delta (data skew, petits fichiers, auto-compaction). Expert reconnu en : Python pour l'ingénierie des données, programmation orientée objet, data science, tests unitaires (pytest) et packaging. SQL (SQL analytique, window functions, SQL Databricks). Spark / PySpark pour le traitement distribué et l'optimisation. Expert reconnu en utilisation de Unity Catalog, incluant : Implémentation du contrôle d'accès granulaire (sécurité au niveau des lignes et colonnes, vues dynamiques, masquage). Gestion des objets Unity Catalog à grande échelle (catalogs, schémas, tables, modèles et gouvernance des fonctions). Pratiques de développement sécurisé, protection des données et conformité réglementaire (RGPD, PII). Expert reconnu en Databricks Jobs et Workflows (orchestration des tâches, retries, monitoring), incluant : Databricks Repos et intégration Git / Gitflow. Déploiement des assets Databricks (notebooks, jobs, pipelines DLT) via des pipelines CI/CD. Databricks SQL editor et SQL Warehouses pour les dashboards ou pipelines de production. Infrastructure as Code utilisant Terraform (providers Databricks et Azure) et ARM templates. Maîtrise avancée de l'écosystème Databricks Machine Learning et Generative AI. Maîtrise avancée de MLflow (experiment tracking, model registry, model serving). Maîtrise avancée de la construction de pipelines ML utilisant Databricks AutoML, Feature Store et feature engineering. Expérience pratique avérée avec les outils de développement basés sur l'IA, incluant les workflows basés sur des agents. Bonne compréhension des normes d'interopérabilité émergentes telles que le Model Context Protocol (MCP) ou équivalent. Capacité à évaluer de manière critique et à intégrer de manière sécurisée les résultats générés par l'IA dans les workflows de développement.
Offre d'emploi
Chef de projet Data — profil “hybride pilotage / data”
Publiée le
Data management
Dataiku
IA
2 ans
40k-53k €
400-550 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Chers consultants, Nous recherchons actuellement, pour un client du secteur de l’assurance basé à Niort , un Chef de projet Data – profil “hybride pilotage / data” . 🎯 Finalité du rôle Un chef de projet orienté data, capable de piloter des initiatives data de bout en bout , tout en comprenant les enjeux techniques, sans être un développeur pur. 🧠 ADN du profil recherché • Chef de projet avant tout, avec une forte appétence technique data • Capable de dialoguer avec des data engineers / data analysts • Profil interface entre les métiers, les équipes data / IT et, ponctuellement, la direction 🛠️ Compétences clés Dataviz → Compréhension des usages métiers, définition des indicateurs, capacité à challenger les dashboards Dataiku (ou plateforme data science équivalente) → Outil central du SI data → Capacité à comprendre les flux, piloter les cas d’usage et orchestrer les évolutions IA / RPA → Capacité à identifier des cas d’automatisation / d’optimisation → Pilotage de projets IA / RPA (POC → production) → Traduction des besoins métiers en solutions data / IA 👥 Management & gouvernance • Animation d’équipes data (data engineers, data analysts, prestataires) • Pilotage de la roadmap data, priorisation et arbitrages • Conduite du changement : adoption des outils, acculturation data des métiers, accompagnement des utilisateurs 👉 En résumé Un Chef de projet Data “business oriented” , à l’aise avec l’écosystème data, capable de structurer, piloter et faire avancer la data au sein de l’organisation. 📍 INDISPENSABLE : présence sur site à Niort minimum 3 jours par semaine.
Offre d'emploi
Business Analyst
Publiée le
Business Analyst
Large Language Model (LLM)
Natural Language Processing (NLP)
1 an
40k-45k €
400-610 €
Paris, France
Télétravail partiel
Descriptif du poste Contexte et mission Vous rejoindrez un programme d'IA de haut impact visant à construire un système agentique pour automatiser les workflows d'email dans le secteur financier. Ce programme transformera les processus manuels en workflows intelligents alimentés par l'IA générative, avec un objectif de réduction de 60%+ de l'effort manuel. Le système agentique comprendra : 1. Conversation Service : Conversion d'emails en données structurées, extraction d'entités et d'intentions 2. Prioritizer : Scoring basé sur le risque et gestion des SLA 3. Drafter : Réponses GenAI avec garde-fous de conformité 4. Summarizer : Distillation des threads et pistes d'audit Stack technologique : CrewAI, intégrations MCP/A2A/ACP, Python, SQL, APIs. Profil recherché Expérience requise 8+ ans en tant qu'analyste métier dans les services financiers (CIB, Opérations ou Risque de préférence) 3+ ans sur des projets IA/ML (ex. NLP, RPA, systèmes agentiques) avec focus sur l'automatisation des processus Expérience avec les workflows d'email, les opérations de trading ou le service client en banque Compétences obligatoires PhD ou équivalent 10+ ans en Data Science, 5+ ans en NLP/GenAI Expérience CrewAI Google ADK Connaissance MCP/A2A/ACP Déploiement d'IA en production Python, SQL, APIs Expérience dans l'industrie financière Publications ou brevets Anglais courant Compétences appréciées Expérience en finance Connaissance GDPR/MiFID Frameworks d'évaluation Contributions open-source Français et anglais courants
Offre d'emploi
Développeur Python / Web Expérimenté (H/F)
Publiée le
Angular
Python
1 an
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Contexte Au sein d’une entité de trading en forte transformation digitale, d’importants investissements IT ont été réalisés ces dernières années afin de moderniser les systèmes, rationaliser les plateformes existantes et développer des solutions innovantes. Dans cette dynamique, les équipes Risk s’engagent pleinement dans une évolution digitale ambitieuse , reposant sur la data engineering , le développement Python et des architectures modernes basées sur des API , afin de remplacer progressivement les outils historiques et les traitements sous Excel. L’équipe Digital Risk IT joue un rôle central dans cette transformation, à la fois en développant les solutions de demain et en accompagnant les utilisateurs métiers dans leur adoption. Votre mission En tant que Développeur Python / Web expérimenté , vous interviendrez au cœur des projets de digitalisation des outils Risk, avec un double rôle : Conception et développement de solutions innovantes Accompagnement et montée en compétence des utilisateurs métiers Vous rejoindrez une équipe technique engagée, travaillant sur des applications à fort impact business, dans un environnement collaboratif et orienté performance. Responsabilités Conception et développement d’applications Développer de nouvelles applications web, services et API alignés avec la roadmap digitale Risk Concevoir des solutions performantes pour le traitement de grands volumes de données Garantir la fiabilité et la qualité des reportings et indicateurs de risque Maintenance et optimisation Assurer la maintenance des services et packages existants Optimiser les performances, la robustesse et l’évolutivité des applications Répondre aux besoins fonctionnels évolutifs des utilisateurs Accompagnement des utilisateurs Travailler en étroite collaboration avec les équipes métiers Diffuser les bonnes pratiques de développement (documentation, tests automatisés, déploiement) Réaliser des revues de code et fournir un support technique Data Science & Machine Learning Contribuer à des projets exploratoires : Détection d’anomalies sur séries temporelles Analyse de sentiment à partir de flux d’actualités Chatbots basés sur l’IA Participer à l’innovation autour des usages de l’IA appliquée à la gestion des risques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
82 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois