Trouvez votre prochaine offre d’emploi ou de mission freelance Python à Paris

Ce qu’il faut savoir sur Python

Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.

Votre recherche renvoie 211 résultats.
Freelance
CDD
CDI

Offre d'emploi
Consultant Data (DataLab Cloudera / Hive / Python) (F/H)

Taleo Capital
Publiée le
Apache Hive
Cloudera
Python

6 mois
57k-64k €
520-580 €
Paris, France
Contexte Au sein d’une direction des systèmes d’information nationaux et européens d'un acteur majeur du secteur banco-financier, le service en charge des plateformes data conçoit, maintient et fait évoluer les systèmes d’information au service d’activités critiques telles que la politique monétaire, les opérations de marché, la gestion des risques, la conformité et la stabilité financière. Vous interviendrez dans un DataLab rattaché aux applications de marché, au cœur des usages data des équipes métiers (marchés, risques, conformité). Objectifs de la mission Vous interviendrez principalement sur : La fin de réalisation et la maintenance évolutive d’un laboratoire data existant L’enrichissement des cas d’usage métiers liés aux opérations de marché, aux risques et à la politique monétaire Les travaux de cadrage et de structuration d’un gisement de données, en lien avec les besoins métiers Périmètre fonctionnel et technique Sources de données Flux issus de systèmes Front, Back et Décisionnels Marché Plateformes de trading et systèmes décisionnels associés Plateforme Data Cloudera Hive Environnements Python et R SAS Viya Outils de restitution et d’analyse Power BI SAS Viya Missions principales Data Engineering & DataLab Développement et maintenance de traitements de données sous Cloudera / Hive Conception et optimisation de requêtes Hive Manipulation, préparation et transformation de données volumineuses Développement de scripts et notebooks Python pour l’analyse, l’exploration et l’enrichissement des données Contribution à la structuration et à l’alimentation des gisements de données Support aux usages métiers Accompagnement des utilisateurs métiers dans l’exploitation des données Contribution aux laboratoires analytiques (Python / R / SAS Viya) Participation à la mise à disposition de jeux de données exploitables pour des analyses prospectives Appui à la création et à l’évolution des cas d’usage data liés aux opérations de marché, aux risques et à la politique monétaire Maintenance et évolution Participation à la maintenance corrective et évolutive du DataLab Prise en compte des nouveaux besoins utilisateurs Contribution à la qualité, à la fiabilité et à la traçabilité des données Documentation des traitements et des jeux de données
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
MySQL

6 mois
40k-71k €
400-630 €
Paris, France
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer - Databricks

VISIAN
Publiée le
AWS Cloud
Databricks
PostgreSQL

1 an
40k-70k €
400-700 €
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
CDI
Freelance

Offre d'emploi
AI ENGINEER - DATA SCIENTIST

SMILE
Publiée le
Data science
Pilotage
Python

6 mois
Paris, France
Au sein de la DSI Corporate d’un grand groupe bancaire, le département Développements Tactiques de la direction Fast Delivery Solutions recrute un Expert Leader Data & IA . Cette direction a pour but de mettre en place des solutions rapides au service de l'ensemble des directions métiers et des fonctions supports, en réponse à des besoins ponctuels ou pérennes. En lien avec les DSI métiers, elle en assure la maintenance et participe à leur éventuelle intégration dans le SI. Pour ce faire, elle met au service des filières métiers une équipe de proximité multi solutions afin de les aider dans leurs travaux ponctuels, la réalisation de POC (Proof Of Concept), de reportings ou bien encore l’automatisation de tâches récurrentes. La mission se situe au sein du département Développements Tactiques qui a pour mission de : Développer des outils en mode commando et en proximité directe avec le métier. Mettre en œuvre des solutions faisant appel à de l’IA générative pour répondre à des besoins métier. Accompagner l’industrialisation de ces solutions dans le parc applicatif des DSI filières. Étudier la possibilité de mise en œuvre de solutions innovantes, au travers d’une veille technologique et d’études d’opportunités. Participer à des évènements et animations de démo ou d’ateliers autour de l’IA ou de la data. L’équipe, actuellement constituée de 19 membres (Data Engineers, Data Scientists et Développeurs FullStack), fonctionne entièrement en mode agile et en proximité avec les métiers. Jeune, dynamique, motivée et très proactive, l’équipe valorise l’entraide et la bonne ambiance. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les soft skills sont donc autant essentielles que les compétences techniques : bon communiquant, motivé, force de proposition et sociable. Compétences techniques déjà présentes dans l’équipe : Développement autour de l’IA Générative. Développement Python / Pycharm. Développement Front Angular. Développement de cas d’usage IA générative à destination du business. Développement PySpark / Spark / Scala. Connaissance des plateformes Cloud. Mise en œuvre de workflows sous Alteryx. La mission : L’équipe se voit confier un nouveau programme visant à mettre en œuvre un ensemble de Use Cases faisant appel à de l’IA générative ou consistant à automatiser des traitements. Pour faire face à ce nouveau programme, nous souhaitons renforcer nos compétences avec un AI Engineer confirmé Data & IA . Principales missions : Innovation et réalisation de POCs : assurer la faisabilité technique des cas d’usage, développer des POCs autour de projets IA générative, proposer des solutions innovantes (LLM, prompts, RAG, traitement de données complexes). Industrialisation : en collaboration avec la production applicative et les contributeurs DSI, industrialiser les sujets dont les POCs s’avèrent concluants. Expertise Data & IA Générative : leader techniquement les projets, en s’appuyant sur les technologies internes (plateforme cloud, outils IA, modèles de langage type Gemini). Force de proposition : identifier des axes d’amélioration et proposer des solutions innovantes. Partage de connaissances : contribuer à la montée en compétences collective au sein de l’équipe. Suivi des sujets : assurer une communication claire et synthétique au responsable de l’équipe et aux Product Owners.
Freelance
CDI

Offre d'emploi
MLOps Engineer

VISIAN
Publiée le
AWS Cloud
OVHcloud
PostGIS

1 an
40k-70k €
400-700 €
Paris, France
Contexte L'équipe détecteur travaille sur des algorithmes de détection d'objets sur des images satellites. Pour produire les détecteurs, l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : Une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. Une stack d'outils spécifiques à la ligne de produit IMINT, développée par l'équipe AI IMINT elle-même. La personne travaillera en binôme avec un MLEng de l'équipe.
Freelance

Mission freelance
MLOps - SageMaker

Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud

3 mois
400-550 €
Paris, France
Au sein d'une équipe de 7 ML Engineers , vous serez l'expert Infrastructure dédié au pôle ML. Votre mission est de bâtir, maintenir et faire évoluer la stack technique permettant de propulser des systèmes de Machine Learning scalables et fiables. Vous ferez le pont entre le monde du DevOps et celui de la Data Science pour garantir l'efficacité opérationnelle des pipelines de production. Missions : Gestion de l’Infrastructure : Maintenir et optimiser la stack infrastructure dédiée au ML en respectant l'état de l'art et les bonnes pratiques AWS. Automatisation (IaC) : Provisionner et gérer les ressources via Terraform pour assurer la reproductibilité des environnements. Orchestration de Workflows : Piloter et configurer les pipelines de données complexes et les workflows ML via Apache Airflow (MWAA). Support Projets Spécifiques : Collaborer avec l'équipe sur l'intégration d'outils avancés comme les bases de données vectorielles (Vectiroeilles), Open Search et l'indexation. Cycle de vie ML : Mettre en place des serveurs dédiés MLFlow pour le suivi de l'entraînement des modèles et optimiser les phases de prédiction. Exploitation SageMaker : Utilisation intensive d'Amazon SageMaker pour l'entraînement et le déploiement de modèles.
Freelance

Mission freelance
Ingénieur NetDevOps

SKILL EXPERT
Publiée le
Ansible
API
CI/CD

1 an
550-580 €
Paris, France
Missions En tant qu’ingénieur NetDevOps, vous interviendrez pour un client grand compte afin de moderniser et d'automatiser la gestion de leurs infrastructures réseau mondiales. Votre mission principale consiste à réaliser des projets d'automatisation visant à fiabiliser les données d'inventaire et à simplifier l'administration du réseau. Sous une logique NetDevOps, vos tâches seront les suivantes : ● Évolution et Intégrité des outils : Assurer la mise à jour de la solution NetBox vers la dernière version stable, incluant la réalisation de tests de non-régression. ● Synchronisation et Supervision : Automatiser la mise à jour de l'outil de supervision Zabbix (ajouts, modifications, suppressions) en utilisant NetBox comme "Source of Truth". ● Réconciliation d'IPAM : Garantir la cohérence des adressages IP entre les entités en automatisant la synchronisation de l'IPAM vers celui du Groupe. ● Intégration API Opérateurs : Développer des connecteurs via API pour automatiser la mise à jour des circuits télécoms Orange dans NetBox. ● Ingénierie Meraki : Étudier et concevoir une solution de remplacement des modèles de configuration du tableau de bord Meraki par une approche programmatique s'appuyant sur l'API Meraki.
Freelance

Mission freelance
Cloud Engineer Lead Expert

Codezys
Publiée le
Ansible
Conception
ISO 27001

12 mois
Paris, France
Le service comprendra : A. Gestion de l'Infrastructure de Stockage Conception et déploiement de solutions de stockage en réseau (NAS) et de solutions cloud adaptées aux besoins. Configuration des volumes et des niveaux de stockage en fonction des exigences de performance. Optimisation des performances du stockage par des ajustements et un équilibrage de la charge. Fourniture d'un service 24/7 avec une organisation dédiée aux heures creuses pour une disponibilité continue. Élaboration et partage de documentation technique, comprenant des Dossier de Conception Technique (LLD), des procédures et des processus. B. Protection des Données & Sauvegarde Mise en œuvre de stratégies de sauvegarde et de récupération d'urgence afin de prévenir toute perte de données. Utilisation et gestion des solutions de sauvegarde adaptées aux besoins spécifiques. Développement de stratégies de réplication inter-sites pour garantir la continuité des activités. C. Sécurité et Conformité du Stockage Application de mécanismes de chiffrement, de contrôles d'accès et de permissions basées sur les rôles pour sécuriser les données stockées. Assurance de la conformité aux normes GDPR, HIPAA, ISO 27001 et autres réglementations applicables. Supervision et prévention contre les ransomwares et les accès non autorisés aux systèmes de stockage. Participation à la résolution des non-conformités identifiées lors des audits. D. Planification de la Capacité & Optimisation Analyse de l'utilisation du stockage et anticipation des besoins futurs. Amélioration de l'efficacité grâce à des fonctionnalités telles que la déduplication, la compression, et la gestion à approvisionnement fin (thin provisioning). Mise en place d'automatisations de la gestion du stockage via des scripts (Python, Bash, PowerShell). E. Résolution de Problèmes & Optimisation des Performances Identification et résolution des problèmes de latence, de limitations en IOPS ou de défaillances de disques. Réalisations de mises à jour du firmware, de correctifs et de vérifications de l'état général des systèmes. Collaboration étroite avec les équipes réseau et base de données pour optimiser le flux de données end-to-end. Gestion des incidents, y compris leur résolution et leur coordination avec les interfaces concernées.
Freelance

Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark

3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Freelance

Mission freelance
expert Linux intégration

QUALIS ESN
Publiée le
Bash
Linux
Python

6 mois
400-550 €
Paris, France
Dans le cadre de l’automatisation de la procuration de certificats numériques mon client recherche un expert confirmé dans les métiers de l’intégration et de l’architecture des SI, opérationnel rapidement. Profil recherché - Expert confirmé en intégration en environnements Linux - Maîtrise des problématiques de certificats numériques et de leur automatisation - Bonne connaissance des environnements DNS, LDAP et LDAPS, SSH - Connaissance du protocoles ACME V2, et éventuellement des protocoles SCEP et EST - Bonne maîtrise de l’automatisation via scripting (Bash, python, etc.) - Très bonne maîtrise des problématiques des environnements sécurisés (DNS, Firewalls, Wafs, clefs asymétriques, LDAPS) - Maitrise des contextes API modernes (JWT, GraphQL, …) - Solide expertise en sécurité des SI (Connaissance des normes de sécurité ISO 27001, ANSSI, sécurisation des sys-tèmes Linux)) - Autonome, rigoureux, capable de documenter et de transmettre les bonnes pratiques. Objectifs de la mission - Intégration/évolution d’un outil d’automatisation de la procuration des certificats - Intégration de la supervision et de la gestion des logs - Implémentation d'une infrastructure de procuration en haute disponibilité - MOE Évolutions puis passage en production - Accompagnement des équipes techniques à l’utilisation et à l’administration de la solution - Analyse des besoins de sécurité, rédaction des plans d’implémentation, et recommandations adaptées - Accompagnement des démarches d’homologation - Réalisation d’audits de sécurité, de conformité réglementaire et de remédiations - Automatisation des tâches via scripting sur des API (REST, …) - Gestion des incidents et réponse aux incidents. Livrables attendus - Documentation complète de l’architecture implémentée - Scripts Bash, Python, . mis en oeuvre dans le cadre de la gestion automatisée avec leur documentation - Procédures d’exploitation et d’administration des plateformes de procuration - Formation des administrateurs, exploitants et supports associés - Plan de MCO/MCS documenté avec préconisations et axes d’amélioration Environnement technique - Systèmes : Linux (Debian, Ubuntu, RHEL), Windows Server, Active Directory - Virtualisation : VMWare vCenter, ESXi (version 8) - Supervision : Zabbix (serveur, proxy, agents) - Logs & observabilité : ELK (OpenSearch, Logstash, Kibana)-Syslog - Sécurité : Normes ANSSI - LPM - Divers : Git, dépôt APT local, scripting Bash/Python BESOIN DE REALISATION EN HORAIRE NON OUVRE OBSERVATIONS COMPLEMENTAIRES - L Lie -
Freelance

Mission freelance
Automaticien RPA & Tests

Tenth Revolution Group
Publiée le
Appium
Git
Jenkins

1 an
480-530 €
Paris, France
Contexte de la mission Nous recherchons un(e) Automaticien(ne) RPA & Tests confirmé(e) pour renforcer l'équipe Qualité Produit / QA centrale d’un de nos clients grands compte. Il s'agit d'une mission à fort impact consistant à concevoir, maintenir et opérer des robots RPA ainsi que des tests automatisés (Web / Mobile / API) tout en assurant le RUN opérationnel. Vos Missions Cadrage & Conception : Participation et animation des réunions de prise de connaissance, chiffrages et ateliers de conception. Développement RPA : Conception, développement (Robot Framework + Python) et mise en service des robots, accompagnés de la documentation technique associée. RUN & Maintenance : Suivi quotidien de la production (gestion des erreurs/incidents, corrections, petites évolutions) et reporting. Automatisation de Tests : Conception et maintenance des Tests de Non-Régression (TNR) sur les périmètres Web, Mobile et API. Réalisation de Proof of Concept (PoC) selon les besoins. Stack Technique & Outillage RPA & Tests : Robot Framework ( Expertise requise ), Python, Selenium, Appium. API : Postman, SoapUI. CI/CD & Référentiels : Jenkins, Git, Xray (pour la traçabilité). Observabilité & Data : Datadog (analyses et monitoring), SQL (requêtage).
Freelance

Mission freelance
Expert Data Transfer / Intégration SI

Codezys
Publiée le
API
Control-M
Middleware

12 mois
450-500 €
Paris, France
Dans le cadre d’un projet relatif à l’intégration d’une société d’investissement au sein d’une société de gestion d’actifs, nous recherchons un expert en transferts de données et interconnexions entre systèmes d’information. L’objectif est d’accompagner la mise en place des flux de données et des connecteurs nécessaires entre les applications existantes de la premier organisme et celles du second, afin de garantir une transition efficace, sécurisée et maîtrisée. Description de la mission L’expert interviendra sur des sujets liés à l’intégration applicative et à la circulation des données entre SI, en étroite collaboration avec les équipes techniques déjà en place (middleware, ordonnancement, connectivité, applicatifs, etc.). Principales responsabilités Analyser les besoins de transfert de données entre les systèmes d’information des deux entités. Participer à la conception et à la mise en œuvre des connexions et flux nécessaires. Travailler avec les experts internes sur les volets : Middleware Scheduling / Ordonnancement Connectivité réseau Applications et interfaces Définir les modalités techniques de transfert : protocoles, formats, fréquences, sécurisation, monitoring Contribuer à la fiabilisation des échanges (tests, validation, résolution d’incidents). Documenter les solutions mises en place (schémas de flux, procédures, référentiels techniques).
Freelance

Mission freelance
Développeur C++ (Finance)

AVALIANCE
Publiée le
.NET
C#
C/C++

3 ans
Paris, France
Domaine Deal Capture Credit La fonction principale du domaine Deal Capture Credit est de supporter, maintenir et faire évoluer une application appelée STAR . STAR est un système de traitement des transactions (trade processing) chargé de la capture des opérations sur les dérivés de taux d’intérêt (IRD) , les futures et les obligations , ainsi que de l’acheminement des transactions du Front Office vers le Middle Office , puis le Back Office . STAR constitue le socle central (backbone) de la suite IT de traitement des transactions. Chiffres clés : Plus de 2 000 utilisateurs réguliers Plus de 1,5 million de transactions capturées par mois Utilisateurs répartis dans 42 pays Le développement logiciel est réalisé à Londres et Mumbai . L’équipe est composée de 23 développeurs et de 14 analystes métiers , répartis sur les deux sites Activités principales du domaine : Développement de nouvelles évolutions à la demande des métiers (Front, Middle ou Back Office). Ces évolutions peuvent concerner : de nouveaux produits financiers, de nouveaux modes de booking, l’amélioration des fonctionnalités existantes, la prise en compte des recommandations d’audit, les exigences réglementaires. Maintenance applicative : correction d’anomalies, support technique en journée, support de niveau 3 en horaires nocturnes.
Freelance

Mission freelance
Ingénieur·e Backend GenAI / IA Générative

Montreal Associates
Publiée le
API REST
CI/CD
Docker

1 an
75000, Paris, Île-de-France
Pour le compte d’un grand groupe international (client masqué) , nous recherchons un·e Ingénieur·e Backend pour intervenir sur une plateforme d’ IA générative déployée à grande échelle en interne. Tu rejoindras une équipe technique travaillant sur une solution stratégique qui vise à améliorer la productivité des collaborateurs grâce à l’intégration de modèles de langage (LLM). Ton rôle consistera à concevoir, développer et maintenir des services backend performants, robustes et scalables , capables de gérer un volume élevé d’interactions IA, d’orchestrer différents fournisseurs de LLM et d’assurer l’intégration fluide avec le SI existant. Missions principales : Conception et développement de microservices backend Développement et optimisation d’ API REST à forte volumétrie Orchestration et intégration de LLM (plusieurs providers) Contribution à la scalabilité, performance et fiabilité de la plateforme Participation à l’architecture backend et aux choix techniques Collaboration en environnement Agile avec équipes produit, IA et DevOps
Freelance

Mission freelance
Business Analyst Data (Advanced)

Gentis Recruitment SAS
Publiée le
Big Data
Business Analyst
Data Lake

12 mois
Paris, France
Contexte de la mission Grand groupe international du secteur de l’énergie, fortement orienté data-driven, souhaite renforcer l’exploitation de ses données de marché afin de : Réduire les risques opérationnels Améliorer l’efficacité des équipes métiers Développer de nouvelles offres basées sur la donnée Le projet stratégique vise la mise en place d’une architecture Big Data de type médaillon (Bronze / Silver / Gold) dédiée aux market datas issues de différentes plateformes de marché. Objectifs du projet Le programme consiste à : Mettre en place les layers : Silver : données structurées et normalisées Gold : données calculées (orders, trades, orderbooks, best bid/ask, OHLC, VWAP, TWAP, etc.) Implémenter le data management : Data quality Data catalog Monitoring Exposer les données Gold via SDK et interfaces métiers Définir et appliquer les politiques d’accès Reprendre l’historique pour permettre le décommissionnement de solutions legacy Rôle du Business Analyst Le consultant interviendra au cœur d’un environnement mêlant équipes métiers (Trading Surveillance, Quant, Market Analysts) et équipes Data Engineering. Analyse & Cadrage Recueil et structuration des besoins métiers liés aux market datas Animation d’ateliers avec les stakeholders Analyse approfondie des données sources Identification des incohérences et cas spécifiques Spécifications fonctionnelles & Data Rédaction des spécifications Silver / Gold Définition des règles de transformation et d’enrichissement Data mapping Gestion de la complexité temporelle des données de marché Définition des modèles orientés usages métiers Data Management & Gouvernance Définition des règles de qualité et indicateurs Contribution au monitoring Participation au data catalog Garantie de traçabilité des règles métier Coordination & Delivery Collaboration étroite avec les Data Engineers Suivi des développements Élaboration de la stratégie de tests Conception et exécution des plans de tests Participation aux comités projet
Freelance

Mission freelance
Coordinateur SI moteur RWA

VISIAN
Publiée le
Oracle
PL/SQL
Python

1 an
330-490 €
Paris, France
Nous recherchons un Coordinateur SI pour le moteur RWA, senior, disposant d'une expertise en PL/SQL, Python, gestion des calculs en mémoire, scalabilité des machines virtuelles à la demande, ainsi que des connaissances en architecture OpenShift et DockDB. Le client est responsable de l'appropriation, de l'intégration et du déploiement de cette solution au sein de son infrastructure. Le Coordinateur SI moteur RWA devra être en mesure de coordonner les contributions des différentes parties prenantes tout en challenger le prestataire, garantissant une intégration et un assemblage efficaces dans le système d'information, tout en apportant des propositions innovantes.

Les métiers et les missions en freelance pour Python

Data scientist

Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.

Data analyst

Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.

211 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous