Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 712 résultats.
Offre d'emploi
Développeur Python / DevSecOps
MSI Experts
Publiée le
DevSecOps
Linux
Python
1 an
Saint-Denis, Île-de-France
Nous recherchons un(e) Développeur DevSecOps disposant de solides compétences en Python pour rejoindre une équipe IT dédiée à des projets métiers à fort enjeu. Vous interviendrez au sein d’une équipe technique en collaboration étroite avec un référent technique, sur des sujets mêlant automatisation, sécurité et valorisation des données. Vos missions Au cœur des activités de développement et d’exploitation, vous serez amené(e) à : Mettre en place et améliorer les pratiques DevSecOps sur plusieurs applications Automatiser les processus liés au développement, aux tests, aux déploiements et à la maintenance Identifier, analyser et corriger les vulnérabilités de sécurité Suivre et optimiser les performances des applications Participer à la conteneurisation des environnements (type Docker / Kubernetes) En parallèle, grâce à votre expertise en Python, vous contribuerez à des projets orientés data et outils métiers : Développer des scripts de traitement et d’analyse de données Concevoir des reportings à destination des équipes métiers Alimenter et structurer les bases de données internes Développer des interfaces simples pour faciliter l’exploitation des données Assurer la maintenance et l’évolution des outils existants Accompagner les équipes dans la création de tableaux de bord (type BI) Participer à des travaux de modélisation et de prévision Une montée en compétences progressive est prévue afin de vous permettre de gagner en autonomie et de devenir un appui fiable sur les sujets techniques clés.
Offre d'emploi
Expert en développement Python et FastAPI
AVA2I
Publiée le
Artifactory
Bitbucket
FastAPI
1 an
Île-de-France, France
Vos missions principales Développement et APIs Concevoir, développer et déployer des APIs de gestion d’infrastructures Participer à la migration vers des architectures API Garantir la stabilité, la performance et la sécurité des services Architecture du SI Définir et concevoir l’architecture cible du SI Définir les standards, normes et principes d’architecture Produire des cartographies fonctionnelles, applicatives, techniques et data Urbanisation et cohérence du SI Garantir la cohérence entre applications, infrastructures et données Identifier : redondances obsolescences opportunités de mutualisation Proposer des roadmaps d’évolution du SI Accompagnement des projets Participer aux phases de cadrage et conception Valider les choix techniques et fonctionnels Conseiller : chefs de projet développeurs équipes métiers
Offre d'emploi
Lead Engineer Automation RPA
VISIAN
Publiée le
Blue Prism
C#
Python
1 an
Paris, France
Contexte Lead Engineer pouvant démontrer une expérience tangible sur des projets d'automation, avec un accompagnement des métiers dans leur stratégie d'automatisation de leurs processus. Missions Participation à la phase d'avant-vente et à l'évolution de l'offre RPA/IDP/Smart Auto d'une grande institution bancaire Rédaction des spécifications techniques pour l'IA ou l'automatisation Réalisation des pilotes des processus à automatiser Participation au développement des centres d'excellence RPA/IDP/Smart Automation Prise en considération des contraintes de l'IT dans l'automatisation des processus Mentoring des développeurs sur des projets d'automation Revue de code permettant le respect des bonnes pratiques de développement sur des projets d'automation Le bénéficiaire exprime un besoin d’accompagnement afin de soutenir l’équipe dans les activités de développement et de maintenance des robots, et de fournir une expertise sur les outils de Robotic Process Automation (RPA). Les missions principales : Réalisation des revues de code dans le respect des bonnes pratiques de développement RPA Suivi du partage de connaissances techniques et fonctionnelles et participation active aux communautés RPA Maîtrise et application de l’ensemble du cycle de vie des tests (préparation, exécution, suivi des anomalies, validation) Maintien et mise à jour de la documentation technique et fonctionnelle Suivi opérationnel de la production : morning checks, dashboarding et monitoring Développement et maintien des scripts Blue Prism ainsi que tout script connexe aux outils RPA Test des différentes versions des produits et contribution aux phases de recette technique Développement, optimisation et maintien des objets communs réutilisables Contribution à la montée en compétence des Centres d’Excellence (CoE) locaux Capacité à agir en tant que point de contact (SPOC) entre les CoE locaux et les éditeurs de solutions RPA Bonne connaissance de l’architecture des solutions utilisées Capacité à être l’interlocuteur privilégié entre les équipes clientes et la production, en apportant une expertise produit pour le support et la résolution d’incidents
Offre d'emploi
📩 QA & Automation Engineer Junior – Orchestrade
Gentis Recruitment SAS
Publiée le
CSS
Git
Javascript
1 an
Paris, France
Dans le cadre de l’accélération des livraisons autour de la plateforme Orchestrade, un acteur majeur du secteur de l’énergie recherche un QA & Automation Engineer Junior pour renforcer l’assurance qualité applicative et l’automatisation des tests. La mission s’inscrit dans un environnement critique de trading et de gestion des risques, avec de forts enjeux de fiabilité, de conformité et d’industrialisation des processus QA. Contexte de la mission Au sein du département DMG de la GBU S&EM, le consultant interviendra sur la plateforme Orchestrade, progiciel financier stratégique remplaçant progressivement l’ancien système front-to-back Meteor. L’objectif est d’assurer la qualité de la chaîne applicative, fiabiliser les processus de validation, automatiser les campagnes de tests et intégrer progressivement les usages de l’IA générative dans la démarche QA. Missions principalesAssurance qualité Analyse des spécifications fonctionnelles et techniques Participation à la rédaction des cas de tests fonctionnels et techniques Exécution des campagnes de tests (fonctionnels, non-régression, intégration) Identification, qualification et documentation des anomalies Vérification de la conformité des applications avec les exigences métiers et réglementaires Participation aux recettes applicatives Automatisation & scripting Développement et maintenance des scripts de tests automatisés Contribution à l’évolution des frameworks de tests existants Automatisation des tests batch et applicatifs Intégration des tests dans les chaînes CI/CD existantes Generative AI Réalisation de POCs rapides via les outils IA Aide à la génération de cas de tests Analyse intelligente des anomalies Optimisation de la couverture de tests Participation à l’amélioration continue autour du test intelligent Environnement technique Python C# / .NET HTML / CSS / JavaScript Git / Jenkins / GitLab CI / Azure DevOps Outils de test : Test Manager, Quality Center, Ranorex Automatisation UI / API Automic ou ordonnanceur équivalent Frameworks Front : Angular ou React IA Générative / NLP / ML appliqué à la QA
Offre d'emploi
Expert infrastructure Autosys
AVA2I
Publiée le
Ansible
Python
12 ans
Île-de-France, France
Nous recherchons un Ingénieur Infrastructure expérimenté pour rejoindre une équipe et assurer le support et le maintien en condition opérationnelle (RUN) d’une infrastructure Autosys critique. Missions principales Assurer le RUN et le support de l’infrastructure Autosys . Participer à l’ exploitation quotidienne , aux incidents et aux astreintes. Contribuer à l’automatisation de certaines tâches via Ansible et Python. Collaborer avec les équipes de production et de développement pour maintenir la stabilité et la performance des systèmes . Documenter et proposer des améliorations de l’infrastructure
Mission freelance
Développeur Sénior Python (Finance / Gestion d’actifs)
Cherry Pick
Publiée le
FastAPI
Numpy
Pandas
12 mois
Paris, France
Au sein du client, l’équipe IT Operations Technology travaille en étroite collaboration avec tous les départements (Opérations, IT, Recherche). L’équipe conçoit et maintient des solutions logicielles à forte valeur ajoutée, directement connectées aux activités de trading quantitatif et de gestion de fonds. L’équipe joue un rôle central dans la chaîne de valeur front-to-back, en particulier sur les sujets suivants : Tenue des positions et gestion des pools de trading, Calcul de la NAV (valeur liquidative) et suivi de la valorisation des portefeuilles, Reporting de performance et KPI pour les gérants de portefeuille et les équipes de gestion des risques, Suivi du contrôle interne et contribution au dispositif de contrôle permanent, Réconciliation avec les contreparties (brokers, dépositaires, administrateurs de fonds). Ces responsabilités placent l’équipe au cœur des enjeux de la gestion d’actifs : qualité et fiabilité des données, robustesse opérationnelle, contrôle des risques, conformité réglementaire, capacité à accompagner la croissance des encours et des stratégies. Dans un contexte de croissance et d’amélioration continue, l’équipe fait également face à des défis techniques majeurs : Réduction de la dette technique, Modernisation de l’architecture et des technologies, Industrialisation et automatisation des processus, Optimisation de la performance et de la scalabilité des applications pour soutenir les activités de trading et de gestion de fonds. Responsabilités principales Dans cet environnement dynamique et en forte croissance, vous jouerez un rôle clé dans l’évolution des outils et processus critiques supportant les Opérations et le Trading. Vos responsabilités incluront : Reconcevoir et améliorer des applications clés utilisées à travers les activités d’opérations et de trading, Garantir la performance, la fiabilité et la maintenabilité des solutions logicielles dans un environnement critique pour le métier, Automatiser les workflows opérationnels afin de réduire les risques, améliorer la qualité des données et permettre aux équipes de se concentrer sur des activités à plus forte valeur ajoutée, Contribuer à l’amélioration continue des processus front-to-back, depuis la génération des ordres jusqu’au suivi de performance et au calcul de la NAV, Développer et améliorer les solutions liées au suivi et au paiement des commissions, Supporter les évolutions des commissions, avec un focus sur les provisions (accruals) et les réconciliations, Livrer des améliorations sur les réconciliations de financement afin d’améliorer les contrôles, l’efficacité et la transparence, Contribuer à l’évolution de l’écran de paramétrage du financement (Financing Set Up) pour mieux répondre aux besoins métiers et à la scalabilité opérationnelle. En travaillant au sein d’une équipe majoritairement composée de développeurs expérimentés, vous devrez : Concevoir, développer et maintenir des applications basées sur Python, Collaborer étroitement avec les équipes Opérations afin de comprendre les besoins métiers liés au trading, à la valorisation, au suivi des portefeuilles, aux commissions et au financement, Livrer des solutions robustes, scalables et maintenables pour supporter les activités de gestion d’actifs de la société, Contribuer à l’amélioration continue des workflows opérationnels et financiers via un développement logiciel pragmatique et de haute qualité. Compétences 1. Compétences techniques Très bonne maîtrise de Python (notamment Pandas, NumPy, FastAPI ou Flask). Bonne connaissance des bonnes pratiques de développement logiciel : Tests automatisés, Intégration et déploiement continus, Documentation, Gestion de versions et revues de code. Connaissance SQL : un plus. 2. Finance / Gestion d’actifs Compréhension des marchés financiers et des principales classes d’actifs (actions, dérivés, futures, FX, etc.). 3. Soft skills Excellentes compétences en communication : capacité à interagir avec des interlocuteurs techniques et métiers (Opérations, Recherche, Risques). Excellentes capacités d’analyse et de résolution de problèmes complexes. Rigueur, attention aux détails, et engagement envers la fiabilité des systèmes, en adéquation avec les exigences d’un environnement de trading et de gestion de fonds.
Mission freelance
Ingénieur DATA
ROCKET TALENTS
Publiée le
Apache Kafka
Big Data
Cloudera
1 an
400-460 €
Saint-Quentin, Hauts-de-France
Ingénieur DATA : . Contexte Dans le cadre de l’exploitation et de l’optimisation de notre infrastructure Cloudera Data Platform (CDP), nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la résolution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maîtriser les architectures Cloudera, posséder une expertise avancée en développement Shell, Ansible et Python, et être capable d’intervenir sur les problématiques de dimensionnement et de tuning de l’infrastructure. Une connaissance de Kafka est requise pour la gestion des flux de données en temps réel. Des connaissances en sur la plateforme Dataiku seraient un plus. 3. Missions Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2. 4. Profil Recherché Le prestataire devra justifier des compétences suivantes : • Expérience avérée en administration et support de Cloudera Data Platform. • Maîtrise de Kafka (optimisation, gestion des performances et de la scalabilité). • Capacité à analyser et résoudre des incidents critiques sur un environnement Big Data. • Maîtrise des langages Shell, Ansible et Python pour l’automatisation et le déploiement. • Expérience sur les bases de données Elasticsearch. • Capacité à intervenir sur des problématiques de dimensionnement et d’optimisation des performances. • Autonomie, rigueur et capacité à être force de proposition. • Une connaissance de la plateforme Dataiku serait un plus. • Capacité à collaborer avec des équipes multi-disciplinaires et à transmettre des connaissances. • Bonnes connaissances de Linux (à l'aise avec un terminal).
Offre d'emploi
Développement Devops AWS
R&S TELECOM
Publiée le
AWS Cloud
Python
Terraform
6 mois
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Au sein des équipes IT, le profil accompagnera les équipes CRM et ERP sur les sujets AWS. Il sera en étroite relation avec le responsable architecture applicative. Tâches à réaliser : Co-construire des architectures data serverless event-driven avec le responsable architecture applicative pour les projets CRM et ERP Concevoir des pipelines d’ingestion et de transformation distribués Accompagner la montée en compétence des équipes CRM et ERP sur le sujet AWS en participant aux raffinages et en faisant de la revue de code Mettre en place des systèmes découplés basés sur la messagerie Garantir la scalabilité, la résilience et l’optimisation des coûts Compétences recherchées : Obligatoires : AWS Lambda (Python) Terraform Expérience nécessaire : Minimum 6 ans d’expérience sur la fonction Langues : Français Date de démarrage : ASAP Localisation : Locaux du client situés près de Grenoble Possibilité d’interventions hors site Client : OUI, 40% (limitée à un maximum de 40% du temps de prestation contractualisé – réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : NON Déplacements sur d'autres site client en France : NON Autre matériel requis : NON
Mission freelance
Développeur Python - Accessibilité RGAA - Orleans/s
WorldWide People
Publiée le
Python
6 mois
400 €
Orléans, Centre-Val de Loire
Développeur Python - Accessibilité RGAA Orleans profil spécialisé pour intégrer une équipe dédiée à l’accessibilité, dont la mission est d’accompagner des utilisateurs en situation de handicap (sourds, malvoyants, personnes présentant une déficience physique ou visuelle). Le candidat doit posséder une solide expertise en développement, tout en ayant une réelle sensibilité au support utilisateur, en particulier auprès de personnes en situation de handicap. Maîtrise du JavaScript natif Maîtrise de Python Maîtrise de HTML & CSS Maîtrise de React Sensibilité ou formation à l’accessibilité numérique et à l’éco‑conception ==> tres important Ci dessous le besoin : Les principales activités consistent à : Analyser les demandes d’évolution et/ou de correction Concevoir des solutions adaptées à WebAccess et NVDA, en conformité avec le cahier des charges et les exigences de qualité (performance, maintenabilité, exploitabilité, etc.) Concevoir en équipe la nouvelle solution « Aide en ligne » Développer et tester les solutions conçues Participer aux phases de recette avec des utilisateurs déficients visuels Assurer le support direct auprès des utilisateurs déficients visuels Pré-requis techniques Maîtrise du JavaScript natif Maîtrise de Python Maîtrise de HTML & CSS Maîtrise de React Sensibilité ou formation à l’accessibilité numérique et à l’éco‑conception ==> tres important Il faut que le candidat habite la région d'Orleans et des déplacements à Nantes sont à prévoir car les utilisateurs sont a Nantes.
Mission freelance
Data engineer orienté back end (Python) PostgreSQL - AWS - Airflow
Celexio
Publiée le
AWS Cloud
Bash
CI/CD
6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Mission freelance
Data Engineer Senior
Comet
Publiée le
Azure
Data Lake
Pandas
24 mois
400-650 €
Paris, France
Objectifs et livrables Dans le cadre du lancement de notre nouveau projet, nous recherchons une prestation de Data Engineer senior pour concevoir et mettre en œuvre des pipelines de données dans un environnement serverless exigeant. Le prestataire Data Engineer senior doit être capable de produire, mais aussi de comprendre les enjeux métier, de cadrer les sujets en amont, de faire les bons choix de conception et de diffuser son savoir-faire au sein de la squad. Missions principales : Concevoir et développer des pipelines de données en Python Implémenter des traitements batch et des orchestrations via Azure Durable Functions Manipuler des données volumineuses, notamment au format Parquet Mettre en place des validations de schémas et des contrôles de qualité de données Assurer l’intégration avec des APIs externes Participer à la modélisation et à l’optimisation des bases Azure SQL Mettre en œuvre l’observabilité de la solution : traces, métriques, logs Industrialiser les déploiements via CI/CD • Garantir la qualité et la sécurité du code Contribuer à l’analyse des besoins et au cadrage des sujets avant implémentation Porter une réflexion de conception sur les choix techniques, les compromis et la maintenabilité Utiliser l’IA comme un levier d’ingénierie concret : accélérer l’exécution, explorer des options, challenger des choix, améliorer la qualité et gagner en efficacité, sans déléguer la réflexion ni baisser le niveau d’exigence Partager ses pratiques, expliciter ses choix et contribuer à la montée en compétence de la squad Travailler efficacement dans un environnement international, y compris en anglais sur des sujets techniques et de conception Profil recherché : Capable de comprendre rapidement les enjeux métier et de les traduire en solutions robustes et pragmatiques Capable de penser le problème avant de se focaliser sur l’implémentation Doté d’une vraie expertise d’ingénierie et de conception, au-delà de la seule maîtrise d’un langage, d’un framework ou d’une version spécifique Capable d’utiliser les outils d’IA de manière avancée, critique et pertinente, et non comme un simple générateur de code Proactif, précis et honnête sur ses capacités, ses limites et les risques associés à ses choix Capable de produire de la synthèse utile à la décision Attiré par l’immersion dans les sujets, le partage, la transmission et le travail transverse Compétences requises : Langage : Python Cloud : Expérience des Azure Functions, notamment Durable Functions v2 Capacité à récupérer et exploiter des données depuis différentes sources Azure : Data Lake, Blob Storage, Azure DB Data processing: Pandas Polars PyArrow Langues : Bon niveau d’anglais, permettant de participer de manière autonome à des échanges techniques et de conception, à l’écrit comme à l’oral La valeur attendue réside aussi dans la capacité à comprendre les enjeux, concevoir les bonnes solutions, utiliser l’IA avec discernement, expliciter les choix et faire progresser l’équipe. Compétences demandées PYTHON - Expert POLARS - Confirmé PYARROW - Confirmé PANDAS - Confirmé Fonctions Azure - Expert Niveau de langue Anglais - Courant
Offre d'emploi
Ingénieur Infrastructure Backup & DevOps (N4)
AVA2I
Publiée le
Cloud
Commvault
DevOps
12 mois
Île-de-France, France
Contexte Dans une équipe IaaS (Backup & Restore), le consultant participe à la transformation des infrastructures de sauvegarde vers un modèle automatisé, industrialisé et Cloud (IBM). Environnement : NetBackup, TSM/TSM-VE, VEEAM, Commvault. Missions Assurer le support expert N4 sur les environnements Backup/Restore Automatiser les tâches récurrentes (Ansible, Python) Contribuer à l’Infrastructure as Code (Terraform) Participer aux projets Cloud et DevOps Industrialiser et optimiser les solutions existantes Rédiger documentation et procédures Participer à une squad Agile Backup Compétences clés Indispensable Terraform (maîtrise pratique) Fortement souhaité Ansible (automatisation, playbooks) Python (scripting, API, automatisation) Outils Backup : NetBackup / TSM / VEEAM / Commvault Connaissance Cloud / IaaS / DevOps
Offre d'emploi
Développeur Python - Industrialisation et Maintenance - junior
VISIAN
Publiée le
API
Python
1 an
Île-de-France, France
Contexte Dans le cadre de la modernisation et l'industrialisation de nos outils, nous souhaitons amener à maturité une application interne développée en Python . L’application, aujourd’hui en production limitée, assure le traitement automatisé de flux de données opérationnelles et la génération de rapports décisionnels pour les équipes de pilotage. Elle nécessite une amélioration de sa robustesse, de sa scalabilité et de son maintien en condition opérationnelle, ainsi que l’ajout de nouvelles fonctions pour couvrir des périmètres métiers complémentaires (ex. : nouveaux flux de données, extensions fonctionnelles, intégration à d’autres plateformes). Il faudra donc industrialiser le code existant (tests, CI/CD, monitoring), renforcer les aspects sécurité et performance, puis implémenter les évolutions fonctionnelles requises tout en assurant le transfert de connaissances aux équipes internes. Missions Analyse du code existant : audit du code source, identification des dettes techniques, revue de l’architecture et des dépendances tierces. Mise en place d’une stratégie de tests : écriture de tests unitaires, d’intégration et fonctionnels. Industrialisation du CI/CD : configuration d’une chaîne d’intégration continue, mise en place de déploiements automatisés sur les environnements de test, pré-production et production. Optimisation des performances : profiling du code, identification et résolution des bottlenecks. Renforcement de la sécurité : ajout de contrôles d’entrée, gestion des dépendances vulnérables, mise en place de l’analyse statique et de la validation des packages. Documentation technique : rédaction de guides d’installation, d’utilisation et de contribution, génération de la documentation API (Swagger). Développement de nouvelles fonctionnalités : analyse fonctionnelle des besoins métiers supplémentaires, conception et implémentation de modules (ex. : ingestion de nouveaux flux, génération de rapports élargis, API REST additionnelles).
Mission freelance
Lead/Développeur Python - Middle Office
Cherry Pick
Publiée le
FastAPI
Pandas
Python
12 mois
Paris, France
Sur le périmètre Allocation / Middle-Office critique opérationnel très rapidement, capable d’absorber du run + des Major Projects du client tout en portant la trajectoire Python 1st et la délégation au support. Profil 15+ ans d’expérience sur des systèmes critiques en environnement de marché. Finance indispensable, avec une expérience significative sur des sujets Middle-Office / post-trade (allocation, lifecycle trade, positions, process de production). Capacité confirmée à être opérationnel rapidement sur un SI complexe et sur des sujets à fort enjeu (Major Projects du client dont Unified Exec). Très bon niveau technique : conception pragmatique, qualité, tests, performance, production readiness. Attendus spécifiques: Être opérationnel rapidement sur le métier Middle-Office Comprendre et maîtriser rapidement les flux post-trade (trade → allocation → positions → impacts coûts/risques). Être capable de challenger des besoins Ops / Trading-Support / Portfolio sur les sujets allocation, exceptions, et process de production. Assurer la continuité du périmètre Allocation Prendre le rôle de référent de l'équipe, tout en organisant le partage de connaissance (docs, pairing, transfert vers l’équipe). Structurer le run (runbooks, procédures, ownership clair) pour que l’équipe puisse tenir le périmètre même en cas d’absence. Leader de production : incidents, RCA, fiabilisation Piloter les incidents majeurs de bout en bout (diagnostic, coordination inter-équipes, communication, mitigation, retour à la normale). Produire des root cause analyses actionnables et s’assurer que les actions correctives sont effectivement livrées (pas seulement documentées). Améliorer monitoring/alerting selon un principe clair : une alerte = utile, actionnable, avec un owner. Accélérer la réduction de dette technique et porter “Python 1st” Être moteur sur la sortie progressive de la logique métier Oracle/PL/SQL (pas de nouvelles procédures ; trajectoire de migration). Livrer 1–2 refactors structurants sur le périmètre allocation/production, avec un vrai gain de maintenabilité et de robustesse (tests, design, observabilité). Délégation au support : posture de partenaire (Front-Support/Ops) Construire un plan de délégation concret (périmètre, garde-fous, checks, formation) et le faire avancer. Transformer la logique “IT garde la main” en une logique “clients autonomes + contrôles + monitoring” afin de libérer de la capacité de dev. Être un enabler sur les Major Projects du client (Unified Exec) Identifier rapidement les dépendances, risques, et besoins de l’équipe Portfolio Middleoffice sur Unified Exec (MANAX / Crossing / règles d’exécution...). Être capable de proposer des options réalistes, d’aligner les parties prenantes et de sécuriser des mises en production. Livrables attendus : Le/la prestataire devra, en coordination avec le manager de l’équipe Portfolio Middleoffice, contribuer à la réalisation d’un sous-ensemble significatif des livrables suivants : 1. Continuité et fiabilisation du périmètre Allocation / Unified Exec Note de synthèse à jour sur la chaîne d’allocation ITMO (périmètre, règles, cas particuliers, dépendances clés). Contribution à au moins une mise en production structurante (par ex. évolution Unified Exec / Managed Accounts / Secure Managed Accounts) avec : plan de tests, stratégie de rollback, contrôles post-MEP documentés. 2. Dette technique & trajectoire Python 1st Cartographie ciblée de la dette technique sur le périmètre confié (allocation / batch / écrans) et proposition d’un backlog priorisé de remédiations. Réalisation de 1 à 2 refontes ou refactors structurants (par ex. migration d’un module PL/SQL vers Python, simplification d’un composant critique) améliorant la maintenabilité et la robustesse. 3. Support, délégation et documentation opérationnelle Rédaction de notebooks pour les incidents fréquents sur la chaîne d’allocation, utilisables par Front-Support / Ops (procédure, critères d’escalade). Contribution à un plan de délégation vers Front-Support/Ops (définition du périmètre transféré, prérequis, étapes), avec au moins un premier lot effectivement transféré. 4. Alertes & monitoring Revue des alertes existantes sur le périmètre (bruit vs utile) et réduction mesurable du nombre d’alertes non actionnables. Amélioration ou mise en place d’une vue de monitoring (dashboard ou équivalent) pour suivre l’état de la chaîne d’allocation et les alertes critiques. 5. Modernisation écrans / interfaces (si inclus dans la mission) Participation à la définition d’un plan de modernisation des écrans concernés (priorités, dépendances, attentes des utilisateurs). Contribution à la refonte ou à la création de 1 à 2 écrans clés, limitant les accès directs à Oracle et améliorant l’autonomie des équipes clientes. 6. GenAI (optionnel mais fortement souhaité) Utilisation de l’IA générative sur le périmètre (refactor de code, génération de tests, analyse de logs), avec au moins 1–2 cas d’usage concrets documentés montrant le gain (temps, qualité).
Mission freelance
Ingénieur DevOps, Réseaux et Sécurité (H/F)
Sapiens Group
Publiée le
Ansible
Cisco
Juniper
12 mois
500-530 €
Île-de-France, France
Contexte Dans le cadre du renforcement de ses équipes, notre client recherche un Ingénieur DevOps, Réseaux et Sécurité pour intervenir sur un périmètre LAN critique couvrant l’ensemble des sites en France (environ 70 sites). Le poste inclut une forte dimension RUN N2 , ainsi qu’une évolution vers des activités DevOps et automatisation des infrastructures réseau . Missions principales 🔹 Exploitation & RUN Réseau (Niveau 2) Assurer le RUN N2 des infrastructures LAN IT/OT (switching, routage, segmentation VLAN). Gérer les incidents réseau : diagnostic, analyse des causes, résolution et coordination avec les équipes N1/N3. Garantir la continuité de service et la performance du réseau sur l’ensemble du périmètre. 🔹 Administration des services réseau Exploiter et maintenir les solutions : Cisco ISE (gestion des accès et sécurité réseau) Infoblox (DNS, DHCP, IPAM) Outils de cartographie et d’analyse réseau (type IpFabric) Participer au suivi de conformité et à l’analyse des infrastructures . 🔹 DevOps & Automatisation (nouvel axe stratégique) Concevoir et mettre en œuvre des scripts d’automatisation (Python, Ansible ou équivalent) pour : La configuration réseau Le déploiement d’équipements Le monitoring et les diagnostics Contribuer à l’industrialisation des opérations réseau ( Infrastructure as Code ). Participer à l’intégration des pratiques DevOps : CI/CD appliqué aux configurations réseau Automatisation des tests et validations Optimiser les processus RUN via des outils d’automatisation et d’orchestration . 🔹 Standards & amélioration continue Participer à la définition et au maintien des standards LAN (architecture, bonnes pratiques, templates). Collaborer avec les équipes d’ingénierie et de supervision pour : Gérer les escalades Améliorer les processus Contribuer à l’ amélioration continue des performances et de la fiabilité du réseau. 🔹 Documentation & gestion opérationnelle Rédiger et maintenir la documentation technique (procédures, wiki interne). Structurer et améliorer le partage de connaissances. Gérer les aspects logistiques : Stock matériel Envois inter-sites RMA (retours fournisseurs) Environnement technique Réseau : Cisco Catalyst & Nexus, Arista Sécurité : Palo Alto Networks, Juniper SRX Outils réseau : Cisco ISE, Infoblox (DDI), IpFabric, Tufin DevOps & automatisation : Python, Ansible, API REST (souhaité) ITSM & gestion : ServiceNow, CMDB, Netbox, Opentext
Offre d'emploi
Data Engineer Python & Power BI (H/F)
STORM GROUP
Publiée le
Microsoft Power BI
Python
3 ans
40k-55k €
400-500 €
Île-de-France, France
Au sein d’une équipe spécialisée en risque de contrepartie, vous contribuez au développement et à l’amélioration d’outils de suivi, d’analyse et de certification des métriques de risque. Vos missions : Développement et optimisation d’outils de reporting et d’analyse Python, Power BI Structuration et modélisation des données pour des usages BI Suivi et contrôle des métriques de risque et des dépassements Participation aux processus de certification et de fiabilisation des données Collaboration avec des équipes pluridisciplinaires (risque, IT, métiers)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
712 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois