Trouvez votre prochaine offre d’emploi ou de mission freelance R (langage)

Mission freelance
224301/Développer R
Développer R Maîtrise du développement en R (version > 3), développement de packages, visualisation (Shiny). Expérience API REST, bases de données, traitement de données volumineuses. Compétences Python > 3. Outils de développement collaboratif : Git, CI/CD, Confluence, JIRA. Capacité à travailler en équipe Agile, autonomie et bonnes qualités relationnelles. Connaissance du domaine énergie / équilibre offre-demande = un plus. Contexte de la mission Objectif de la mission Développer, maintenir et industrialiser des scripts de traitement des données (entrées/sorties). Garantir des solutions robustes et pérennes, et non de simples scripts ponctuels. Préparer la migration progressive d’une partie des scripts R vers Python. Objectifs et livrables Missions principales Recueil des besoins auprès des utilisateurs métier (ateliers, rédaction de spécifications). Développement de nouveaux scripts en R et mise à niveau des existants. Industrialisation (packaging, tests unitaires, CI/CD). Évolutions fonctionnelles pour suivre les montées de version du simulateur. Automatisation des vérifications et analyses post-simulation. Coordination avec l’équipe projet et participation aux cérémonies Agile. Livrables attendus Spécifications fonctionnelles et techniques (Confluence). Tickets de dev (JIRA). Scripts R industrialisés, packages documentés, tests unitaires. Rapports d’analyses automatisés. Compétences attendues Maîtrise du développement en R (version > 3), développement de packages, visualisation (Shiny). Expérience API REST, bases de données, traitement de données volumineuses. Compétences Python > 3. Outils de développement collaboratif : Git, CI/CD, Confluence, JIRA. Capacité à travailler en équipe Agile, autonomie et bonnes qualités relationnelles. Connaissance du domaine énergie / équilibre offre-demande = un plus.

Mission freelance
Développeur(se) R
Vous intervenez au sein d'une équipe projet sur la réalisation de scripts de traitement de données. Vous avez pour missions principales : Développement, refonte et migration de scripts R existants vers des versions industrialisées et pérennes. Mise à jour de scripts R. Recueil et analyse des besoins utilisateurs. Rédaction des spécifications techniques et fonctionnelles. Évolution fonctionnelle de scripts existants. Réalisation des tests techniques Participation à l’amélioration continue des outils de l’application. Environnement technique : R, Python, Excel, APIs REST, Git, Linux , Jira, Confluence

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP
L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse
Offre d'emploi
Data Scientist Senior
Contexte Nous recherchons un(e) Data Scientist expérimenté(e) pour rejoindre un DataLab et contribuer à des projets innovants allant de la R&D jusqu’à l’industrialisation de modèles de Machine Learning. Les problématiques traitées sont à fort impact : maîtrise de la charge de sinistres, lutte contre la fraude, anticipation et gestion des risques climatiques. Profil recherché Data Scientist senior avec 5 ans minimum d’expérience , dont des projets menés jusqu’à l’industrialisation. Idéalement : connaissance du secteur Assurance / IARD , conduite du changement et accompagnement utilisateurs. Bonus : maîtrise de R, SAS, QlikSense. Modalités Démarrage : Janvier 2026 Durée : 12 mois (renouvelable)

Offre d'emploi
Data analyst R&D (données cliniques)
Missions principales En pratique, vos responsabilités seront les suivantes : Recueillir et analyser les besoins utilisateurs (équipes métier et R&D). Développer ou améliorer des solutions d’acquisition et de visualisation innovantes. Concevoir et optimiser des rapports de tests, validations et suivis financiers (P&L, KPIs). Élaborer et maintenir la documentation technique, fonctionnelle et les guides utilisateurs. Conseiller et accompagner les utilisateurs dans l’exploitation des solutions. Participer à la mise en place et l’évolution de processus et d’outils de data management. Réaliser des études de faisabilité (données, systèmes, outils, développements). Assurer des formations utilisateurs et produire le matériel pédagogique associé. Compétences techniques attendues Reporting & DataViz Power BI (certification souhaitée) : DAX, Power Query, Report Builder. Streamlit (Python) et Shiny (R) pour des applications interactives. Data storytelling et adaptation des visualisations selon les profils utilisateurs (métiers, data science, direction). Programmation & Analyse de données Python (pandas, matplotlib, seaborn, Streamlit). R (packages de data processing, dashboards interactifs via Shiny). SAS (traitement, analyse et transformation de données structurées, contexte analytique ou clinique). SQL / DBT (structuration, transformation et exploitation de données relationnelles). Bonnes pratiques de développement Maîtrise de Git / GitLab (versionning, branches, merge requests, revues de code). Respect des bonnes pratiques de structuration, modularité et documentation du code. Travail en mode agile (Kanban, Scrum) avec PO, Tech Lead, Data Engineers. Big Data & Cloud Transformation et industrialisation de la donnée sur Google Cloud Platform (GCP) . Développement de datamarts en collaboration avec les Data Engineers.

Offre d'emploi
Lead data (H/F)
Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github

Offre d'emploi
Dev Pyspark / Dataiku
Misison en Ingénierie informatique spécialisé Python/Dataiku Contexte : L’exercice ICAAP (Internal Capital Adequacy Assessment Processes) joue un rôle de premier plan dans la gestion des risques des banques. Cet exercice repose sur deux axes principaux : d’une part la réalisation de tests de résistance (stress-test) et d’autre part, un mécanisme de mesure des besoins en capital et de planification du capital. Mission : Au sein de la direction des risques (RISK), l’équipe Stress Testing Methodologies and Models (STMM) du département Stress Testing and Financial Simulation (STFS) est une équipe quantitative en charge de l’élaboration et de la maintenance des méthodologies de mesures des risques utilisées pour l’ICAAP. L’équipe a la responsabilité de développer les mesures de risque et de produire les indicateurs de capital interne et de stress-test utilisés pour l’ICAAP pour les risques de crédit, opérationnel et de marché. Infrastructure : L’infrastructure de production des indicateurs repose sur la plateforme Dataiku et fait appel à la fois à des instructions en PySpark et en Python. Suite à une mise à jour de la version de Python dans l’infrastructure (passage d’un Python 2.7 à 3.6), l’équipe a évalué le besoin de mettre à jour la librairie utilisée pour la production des indicateurs de risque de marché dans le banking book (MRBB). Ambiance de la misison: Gestion des risques, avec une expertise en Python et PySpark. Langages de programmation Python et PySpark. Dataiku souhaitable. Compétences techniques en langage R.

Mission freelance
Administrateur Informatica (FH)
Contexte Une grande institution du secteur bancaire public recherche un(e) Administrateur(trice) Informatica PowerCenter pour renforcer son équipe au sein du département en charge des outils analytiques. Vous intégrerez un centre de compétences structuré en pôles techniques (SAP BI, SAS, Microsoft BI, R/Python…) et interviendrez sur plusieurs projets structurants autour des plateformes d’intégration de données et de migration vers le cloud. Vos missions Assurer le support, l’administration et l’optimisation des plateformes PowerCenter / PowerExchange Prendre en charge les incidents, diagnostics, correctifs, escalade éditeur Coordonner les travaux de migration (versions PowerCenter, serveurs Linux, bases de données) Développer et industrialiser les offres internes : DataMasking, CDC, IDMC Piloter la mise en place de framework, KPI, supervision technique Participer aux comités techniques, échanges avec les équipes projet et infra Contribuer à l’enrichissement de la base de connaissance et des supports de formation Livrables attendus Documents de migration, étude d’impact, planning Frameworks techniques (CDC, DataMasking) Tableaux de bord de supervision Reporting régulier sur l’avancement des travaux Journal des changements et tickets (outil interne)

Mission freelance
Expert Alteryx
Mission principale Concevoir, optimiser et maintenir des workflows complexes dans Alteryx afin de répondre aux besoins de transformation, d’automatisation et de fiabilisation des données au sein des équipes métiers et IT. L’expert Alteryx sera également chargé d’accompagner les utilisateurs dans l’adoption de la plateforme et la mise en place des bonnes pratiques. Responsabilités Analyser les besoins métiers et traduire les exigences en solutions dans Alteryx. Concevoir, développer et maintenir des workflows et macros complexes (préparation, transformation et automatisation des données). Optimiser la performance et la robustesse des processus existants. Mettre en place des standards et bonnes pratiques pour l’utilisation d’Alteryx au sein des équipes. Former et accompagner les utilisateurs (analystes, risk managers, contrôle de gestion, etc.). Participer à l’intégration d’Alteryx avec d’autres systèmes (bases de données, BI, cloud). Assurer la documentation et la traçabilité des workflows. Contribuer à la veille technologique autour des outils d’automatisation et de data preparation. Compétences techniques Maîtrise approfondie de Alteryx Designer et Alteryx Server . Excellentes connaissances en manipulation et modélisation de données. Bonne maîtrise du SQL (optimisation de requêtes, jointures complexes). Connaissance d’outils complémentaires : Tableau, Power BI, Python ou R (serait un plus). Compréhension des architectures data (ETL, API, entrepôts de données). Connaissance des environnements cloud (Azure, AWS ou GCP) appréciée. Compétences fonctionnelles Compréhension des activités et produits des marchés financiers (actions, taux, dérivés, change, etc.). Sensibilité aux problématiques de conformité, risque et reporting réglementaire. Capacité à dialoguer avec des interlocuteurs variés : métiers, IT, data engineers, contrôleurs.

Offre d'emploi
Ingénieur Système Mainframe / Zos(H/F)
Dans le cadre du renforcement de notre équipe infrastructure, nous recherchons un Ingénieur Système Mainframe expérimenté pour intervenir sur la gestion, l'optimisation et le support de notre environnement z/OS. Vous serez responsable du bon fonctionnement des systèmes Mainframe et participerez activement aux projets d'évolution technique, tout en assurant un support de haut niveau. Le consultant sera chargé de l'administration système MAINFRAME ainsi que des produits Software AG (CICS, NaturalOne, SuperNat, EntireX, BDD Natural Adabas) dans une architecture complexe. Le site client est basé à Niort mais nous offrons la possibilité de télétravailler avec des venues ponctuelles à Niort à raison de 1 semaine tous les deux mois (Hôtel + Train A/R pris en charge). Missions principales : Assurer l'administration, la supervision et l'optimisation des systèmes Mainframe (z/OS). • Gérer les incidents de niveau 2/3 et assurer le support technique aux équipes applicatives. • Participer aux projets de migration, d'intégration ou de mise à jour du système. • Mettre en œuvre les procédures de sécurité, de sauvegarde et de continuité d'activité. • Collaborer avec les équipes DevOps, Réseau, Sécurité et Production. • Support des outils SoftwareAG tels que : -NaturalONE -Supernat -ReviewDB / DBlog -Event replicator -Support des solutions du Framework -Module Directeur -Listener Natural (Traitement de flux asynchrones) -Translate file (Solution UNISI et fichier nationaux) -Triggers (Anonymisation, Création d'images pour NPRH ) -Support de la couche d'échange EntireX - ApplinX -Appels entrants (Open - Host) -Appels sortants (Host - Open) • Support système Mainframe : - Matériel mainframe - Système z/OS - CICS - Sécurité RACF - LDAP - Virtel - Editions EOS - OMEGAMON/TEP - PSF -CONTROL/M for Z/OS • Activités transverses : - Support Projets MCO système et montées de version mineures et majeures - Gestion de la solution d'alimentation du Data Lake - Gestion d'actifs de la GPA (Décommissionnement de transaction) - Gestion des Scénarios Virtuel Les missions énumérées ci-dessus ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : cnow3ma71k

Offre d'emploi
Architecte DataOps – MLOps & AI
Contexte de la mission L’équipe AI Production Center , rattachée à la division AI & Innovation de l’IT Groupe, assure la conception, l’industrialisation et le support des plateformes Data Science et IA du Groupe. Une équipe de 20 experts organisée en 5 pôles (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). Plus de 15 plateformes de Data Science / MLOps en production (Cloud & On-Premise), utilisées par plus de 600 Data Scientists . Déploiement de plusieurs infrastructures et services d’ IA générative à destination des métiers. Un GPU Grid On-Premise pour les besoins de training et d’inférence. Généralisation des pratiques DevSecOps / GitOps / MLOps / LLMOps . Forte culture de l’ automatisation autour des APIs, infrastructures (Kubernetes / OpenShift) et produits. Missions principales Support & mentoring avancé : accompagner les utilisateurs et les équipes DataLab en support N3 sur les plateformes IA (best practices, coaching, expertise technique). MCO & supervision : garantir la fiabilité, la disponibilité et la performance des plateformes Data Science en production. MLOps & LLMOps : déployer les outils, workflows et bonnes pratiques pour accompagner les clients dans leurs démarches d’industrialisation. Frameworks distribués & GPU : aider les utilisateurs dans l’exploitation des environnements de calcul haute performance et des accélérateurs matériels. Développement & automatisation : contribuer à la conception, la mise en production, l’amélioration continue et le support des services du DataLab : APIs Workflows MLOps Pipelines Dashboards Environnement technique Conteneurisation & orchestration : Docker, Kubernetes, OpenShift Frameworks distribués : Spark, Ray, Dask, OpenMPI GPU Computing : CUDA, Rapids, NIMs, Nemo Data Science : Python, Conda, R (optionnel) Programmation & automatisation : Python, Shell scripting MLOps : MLFlow, Kubeflow CI/CD & DevSecOps / GitOps : Hashicorp Vault, GitLab, GitLab-CI, Artifactory, ArgoCD, Argo Workflow Environnement de travail Esprit d’équipe et collaboration au cœur du fonctionnement. Curiosité, autonomie, rigueur et recherche de qualité. Sens du service, patience et bienveillance. Partage de connaissances et amélioration continue. Culture de l’ automatisation fortement ancrée. Anglais courant requis (échanges internationaux, documentation en anglais). Matériel au choix : MacOS ou Windows .

Offre d'emploi
Lead Test
Responsabilités principales 1. Stratégie et gouvernance Définir la stratégie de test de performance alignée avec la roadmap QA et les jalons contractuels (SIT, UAT, tests de performance clients). Définir les objectifs de performance (SLO/SLA), les KPIs et les métriques de suivi. Mettre en place la gouvernance des tests de performance et animer les comités de suivi. Définir les besoins en environnements dédiés (dimensionnement, isolation, monitoring, observabilité). 2. Pilotage et coordination Coordonner les activités avec les QA Squads, QA Service, Product Quality Control (PQC), DevOps et SRE. Superviser la préparation des environnements et leur disponibilité pour les campagnes de charge. Assurer le reporting de performance auprès des parties prenantes internes (CTO, direction QA) et externes (banques clientes). 3. Outillage et méthodologie Sélectionner et standardiser les outils de test de performance (JMeter, Gatling, K6, Locust…). Intégrer les tests dans les pipelines CI/CD et les exécutions cloud. Mettre en place l’observabilité et l’analyse via APM et monitoring (Prometheus, Grafana, Dynatrace, Datadog, ELK). Industrialiser les tests de charge, endurance, stress et chaos engineering. 4. Conduite des tests et expertise Définir et développer les scénarios de test représentatifs des parcours métier (paiement, remboursement, règlement, compensation, etc.). Piloter les campagnes de tests et analyser les résultats. Identifier les bottlenecks, anomalies et axes d’optimisation (infrastructure, code, tuning applicatif). Fournir des recommandations techniques et assurer le suivi de leur implémentation. 5. Cloud-native et innovation Adapter les pratiques de tests de performance aux environnements distribués et cloud-native (Kubernetes, Docker, microservices, autoscaling). Définir une approche de tests de résilience et de tolérance aux pannes. Accompagner la montée en charge progressive des systèmes Interactions clés QA Squads : coordination sur la préparation des scénarios et leur intégration. QA Services & PQC : alignement avec les tests métiers pour assurer la représentativité des flux. SRE : gestion des environnements, sizing, monitoring, observabilité. DevOps : intégration des tests dans la CI/CD. Architectes techniques : optimisation et design pour la performance. Banques partenaires / Schemes : pilotage des tests de performance en phase de recette client. RACI (Responsabilités) Activité Responsable (R) Appui (A) Consulté (C) Informé (I) Définition stratégie performance Lead Test de Performance Head of QA Architecte, SRE Direction Choix outils et méthodologie Lead Test de Performance DevOps QA Squads, SRE CTO Préparation des environnements SRE Lead Test de Performance DevOps QA Conception scénarios de charge Lead Test de Performance QA Squads PQC Head of QA Exécution campagnes de tests Lead Test de Performance DevOps, SRE QA Squads Direction Analyse et reporting Lead Test de Performance Architecte Head of QA Clients / Banques Livrables attendus Stratégie de test de performance (document de référence). Plan de performance par jalon projet (SIT, UAT, performance client). Scripts de test de performance industrialisés. Rapports de test (résultats, analyses, recommandations). Tableaux de bord et KPIs de suivi. Retours d’expérience et bonnes pratiques. Compétences requises Techniques Maîtrise des outils de test de performance (JMeter, Gatling, K6, Locust…). Expertise en environnements cloud-native (Kubernetes, Docker, microservices). Connaissance des bus de messages (Kafka, MQ). Compétence en observabilité (Prometheus, Grafana, Datadog, Dynatrace, ELK). Bonne maîtrise des architectures distribuées et des problématiques de scalabilité. Pratique des pipelines CI/CD (Jenkins, GitHub Actions, ArgoCD). Méthodologiques Conception et pilotage de stratégies de test à grande échelle. Définition de SLO/SLA et mise en place de KPIs. Industrialisation des tests de performance. Analyse des résultats et formulation de recommandations techniques. Soft Skills Leadership et capacité à fédérer une communauté de pratiques autour de la performance. Excellente capacité d’analyse, de diagnostic et de synthèse. Communication claire et adaptée aux différents interlocuteurs (techniques, métiers, clients). Orientation résultats et engagement sur les délais. Profil recherché Bac+5 (école d’ingénieur, université) ou expérience équivalente. Expérience confirmée (7-10 ans) en tests de performance sur des systèmes distribués et cloud-native. Expérience réussie en tant que lead ou architecte performance. Idéalement une expérience dans les domaines paiement, bancaire ou fintech. Bonne maîtrise du français et de l’anglais (oral/écrit). Indicateurs de succès Respect des jalons de tests de performance (SIT, UAT, performance client). Disponibilité et fiabilité des environnements de test. Réduction des incidents liés à la performance en production. Adoption et industrialisation des pratiques de test de performance au sein des squads. Satisfaction des banques partenaires et schemes lors des phases de certification.
Mission freelance
Formateur/Développeur Python/Django
recherche un Développeur Senior pour accompagner la communauté des salariés-codeurs sur leurs projets de développement. Le DevStudio est une initiative visant à démocratiser le développement applicatif en interne, notamment en Python et R, en apportant un support technique, méthodologique et pédagogique. Missions Accompagnement des projets Revue, reprise et accompagnement des projets en Python / R Support sur Git, GitLab, CI/CD, hébergement et mise en production Analyse de la qualité du code, écriture de tests unitaires Conseil sur la documentation, l’architecture et les bonnes pratiques Participation aux réunions projets, suivi régulier des contributeurs internes Développement et maintenance du site DevStudio (Python/Django) MCO (corrective et évolutive) du site et des kits de démarrage Développement de nouvelles fonctionnalités (backend + UI) Veille technologique (cybersécurité, frameworks, outils internes) Animation & formation Animation de la communauté des codeurs RTE Participation aux événements : forums, ateliers, hackathons, démonstrations Rédaction de contenus (newsletter, documentation) Animation d’ateliers techniques (Python, Git, R, HTML/CSS, Docker, etc.) Profil recherché Compétences techniques requises Langages : Python (avancé), Django, Flask, Dash, Streamlit, R (bonne connaissance), JS/HTML/CSS Data Science : Pandas, NumPy, Matplotlib, nettoyage, analyse de données ML/IA : Scikit-learn, TensorFlow, Keras, Pytorch, déploiement de modèles API & microservices : Django REST, sécurisation (OAuth, JWT) DevOps : Docker, GitLab CI, Linux, scripts Bash, Azure BDD : PostgreSQL, MySQL Bonnes pratiques Tests unitaires, audits de code, documentation technique Travail en équipe Agile (kanban) Développement de code maintenable et scalable Sens pédagogique et capacité à vulgariser Expérience attendue 10 ans minimum d’expérience en développement Capacité à intervenir sur des projets multi-technos, en environnement agile Expérience de mentorat ou formation appréciée Environnement de travail Équipe pluridisciplinaire (animateur, chefs de projet, contributeurs internes) Projet transverse au sein de la DSI Déplacements ponctuels en région à prévoir Matériel et accès aux outils fournis par RTE
Offre d'emploi
ARCHITECTE FONCTIONNEL/DATA ANALYST - CAPITAL MARKETS (BANQUE D’INVESTISSEMENT) PARIS
Dans le cadre de projets de transformation au sein d’une grande banque d’investissement, nous recherchons un Architecte Fonctionnel / Data analyste spécialisé dans les environnements Capital Markets . Cette mission s’inscrit dans un contexte de refonte et d’optimisation des systèmes d'information liés aux activités de marchés (produits dérivés, fixed income, equity, FX, etc.). Vous devez obligatoirement avoir une bonne connaissance pratique et théorique des produits de marché, une expérience confirmée en capital markets et une maitrise d’outils SAS, Python ou SQL (Merci de ne pas postuler dans le cas contraire) Il s’agit d’un poste en CDI temps plein (Remote partiel) Salaire suivant expérience et qualifications plus Bonus de performance Bonus de publication Autres bonus et avantages (Mutuelle et prévoyance, tickets repas) Mission longue 3 ANS 2. OBJECTIFS DE LA MISSION L’architecte fonctionnel interviendra sur les missions suivantes : Définition de l’architecture fonctionnelle cible et alignement avec les besoins métiers. Analyse des processus front to front et front-to-back (trading, risk, ). Rédaction des spécifications fonctionnelles et des livrables d’architecture. Contribution aux phases de cadrage et d’étude d’impacts. Accompagnement des équipes projets dans l’implémentation des solutions. Veille à la cohérence des flux fonctionnels et à l’intégration des différentes briques applicatives. 3. ENVIRONNEMENT TECHNIQUE & FONCTIONNEL Domaines fonctionnels : Produits dérivés, Fixed Income, FX, Equity, Risk Management Environnement SI : systèmes de trading, outils de booking/valorisation, , moteurs de calculs de risque, systèmes réglementaires. Outils : SQL, SAS, Python , .. front office, capital market, trading, market risk, risque de marché architecte fonctionnel, + anglaise , data analyste , data scientist sql, sas, python, R.. commando, quant 4. ETL / DEVOPS Une bonne connaissance des processus ETL (extraction, transformation, chargement) est requise pour assurer l’intégration cohérente des données au sein des systèmes de marché. Une familiarité avec les pratiques DevOps (CI/CD, automatisation, gestion de version) constitue un atout pour fluidifier les déploiements et les évolutions applicatives.

Offre d'emploi
Ingénieur OPS / Ingénierie OPS
Ingénieur OPS / Ingénierie OPS Prestation d'Ingénierie OPS afin de participer à des projets métier en mode équipage. La mission requiert une très forte capacité à maitriser les aspects techniques et en garantissant le respect des exigences de la Production et la bonne exploitabilité des produits mis en œuvre. L'automatisation via les toolchain et les outils XL Release sont attendus ainsi que la mise en supervision End to End du parc applicatif via Dynatrace en complément des évolutions applicative / technique à gérer dans une équipe produit Cloud. HNO et astreinte demandée. Anglais courant. Missions Réalisation les installations sur les différents environnements (Réaliser passage en production (mep, cab ...) Facilité de déploiement des solutions Intégration dans l'équipe, en mobilisant les bonnes expertises / services de Production : le monitoring des services et Les environnements techniques (Prod et hors Prod) Conduction ou vérification des revues de sécurité de l'équipe Évolution des infras et les outils Remonte les propositions d'amélioration des services de production applicative dans une démarche d'amélioration continue Représentant de la Production dans l'équipe projet (Squad) (TOOLCHAIN - Ansible A/R) Promotion des solutions basées sur les produits et services existants, intégrant par nature les exigences de production et de sécurité (résilience, monitoring, …) afin de réduire le délai de mise en œuvre Définir, piloter et garantir les SLOs (Gestion des problèmes (récurrence incidents) Assemblage des produits et services de production et d'infrastructure au profit des applications, en conseillant sur l'adoption des technologies en ligne avec les besoins applicatifs Support des équipes de développement pour sécuriser et accélérer la livraison des projets Implémentation des user stories techniques Suivi de l'Exploitabilité du Delivery - (PACT, PCR, Exigence de prod, normes et standards) Identification des points de blocage d'exploitation (flux, sécurité, réseau…) puis alerter et proposer des plans d'action Contribution à la définition des niveaux de service et des indicateurs de Production Veille à l'existence et au test d'un plan de bascule en backup (ICP) Définition de l'architecture Technique (SATS/CASA) - Participation aux réunions de définition de l'architecture Contrôle de la traçabilité des accès aux machines (OS, Espace de stockage, routeurs…) et remédier si nécessaire Vérification de l'exploitabilité des environnements techniques (backup/restore, accès aux données, performances…) Anticipation des problématiques de conformité aux règles et standards d'architecture, de sécurité, de délais de livraisons et de mise à l'échelle des solutions proposées Veille à l'ajout des exigences d'infrastructures et d'exploitation dans le Product Backlog, ainsi que toute User story technique jugée nécessaire (industrialisation, gestion de l'obsolescence, …) Définition et mettre en place/faire évoluer le Monitoring Mise en place de la surveillance et la supervision de la Solution mise en production Disposition de l'équipe, en mobilisant les bonnes expertises / services de Production : Le monitoring des services et Les environnements techniques (Production et hors Production) Mise en place des consignes (Pilotage applicatif) et AEL Référentiel Documentation & GED Veille de la disponibilité d'une documentation Expertise et Rôle Le manuel utilisateur (fonctionnel) Gestion des incidents – Assistance en cas de blocage ou d'incident sur les versions mises en production La continuité applicative (ICP/Backup Restore/DR) - Restauration des bases de données La guilde technique Compétences Techniques Attendues Linux / Windows / Docker / kubernetes / Ansible Pratiques d'automatisation "as code" s'appuyant sur une culture DevOps et Agile Technologies / Langages : Cloud (Docker, Kubernetes),/ Oracle / MongDB / CFT, Control M, Liberty Core - Websphere / MongoDB, SGBD Oracle, terraform, Openshift Monitoring : Dynatrace OS Linux et Windows, Aix Langages : yaml, python, shell. Toolchain et automatisation: Gitlab, Ansible Tower, Ansible Galaxy, Artifactory, Jenkins, Gitlab-CI, XL Release La certification éditeur peut être un critère différenciant
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.