Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 115 résultats.
CDI

Offre d'emploi
Data Manager Chef de Projets Clinique Support- Clinical Data Management Project Leader Support H/F

█ █ █ █ █ █ █
Publiée le
Data management

Rennes, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Product Tech Lead – IA / GenAI - English - Full remote

Net technologie
Publiée le
Agent IA
Azure AI
IA Générative

6 mois
550-600 €
France
🚀 Product Tech Lead – IA / GenAI (Azure) Dans le cadre d’une transformation digitale ambitieuse , nous recherchons un(e) Product Tech Lead pour piloter une solution stratégique basée sur la Data & l’IA Générative , dédiée à la performance des équipes commerciales. 🎯 Objectif : concevoir et déployer une plateforme data-driven fournissant des insights intelligents et des outils innovants pour soutenir la croissance business. 🚀 Missions Définir et piloter l’ architecture technique & data end-to-end Garantir la scalabilité, sécurité et performance des solutions Encadrer une équipe transverse (Dev, Data, AI Engineers) Concevoir et livrer des fonctionnalités IA / GenAI (Azure OpenAI) Structurer les pipelines data , gouvernance et cycle de vie des modèles Assurer l’intégration avec les systèmes ( SAP, Salesforce ) Superviser les déploiements (Azure / Fabric) avec pratiques DevOps, MLOps, LLMOps Collaborer avec le Product Manager pour aligner valeur métier & faisabilité technique
Freelance

Mission freelance
Project Manager (GRC IA CLOUD DATA)

Groupe Aptenia
Publiée le
Cloud
Data management
Gouvernance, gestion des risques et conformité (GRC)

6 mois
400-600 €
Paris, France
🎯𝐓𝐨𝐧 𝐭𝐞𝐫𝐫𝐚𝐢𝐧 𝐝𝐞 𝐣𝐞𝐮 : - Piloter les analyses de risques IT & cybersécurité sur des projets innovants (IA, Cloud, Data) - Accompagner les projets en apportant expertise sécurité et conseil (data protection, conformité, architecture) - Identifier, qualifier et suivre les risques, vulnérabilités et plans de remédiation - Assurer la conformité des projets IT (y compris third parties) et la résilience opérationnelle - Préparer et animer les comités de validation (risk, sécurité) 🛠️ Gouvernance & GRC - Intégrer les analyses dans l’outil GRC Groupe - Contribuer au programme cybersécurité (référentiel NIST CSF) - Produire le reporting (KPI, tableaux de bord, comités) - Maintenir et améliorer les politiques et procédures 🤝 Environnement - Collaboration avec équipes IT, métiers, sécurité, data, juridique et compliance - Contexte international et multi-sites
Freelance

Mission freelance
INGÉNIEUR(E) RÉSEAU & SÉCURITÉ CONFIRMÉ(E)

Craftman data
Publiée le
Ansible
Azure
Check Point

3 mois
320-710 €
Le Havre, Normandie
MISSIONS PRINCIPALES 1. Audit et consolidation de l'existant (prioritaire) Réaliser un audit complet de l'architecture réseau et sécurité : cartographie des flux, segmentation réseau, politique de sécurité, configuration F5 et Check Point Valider et mettre à jour les documentations techniques, schémas de flux applicatifs et matrices de filtrage Réviser et proposer des amélioriations des configurations load balancing F5 (LTM, GTM, ASM/WAF) : VIPs, pools, health checks, SSL o]loading, iRules Réviser et proposer des amélioriations des configurations firewalls Check Point : règles de filtrage, NAT/PAT, VPN site-to-site et remote access, haute disponibilité ClusterXL Analyser les configurations BGP (annonces, policies, route-maps, geo-clusters DRP) et connectivités Azure ExpressRoute Identifier les vulnérabilités, points de fragilité et non-conformités, formuler des recommandations correctives priorisées 2. Transfert de compétences et accompagnement des équipes (prioritaire) Travailler en étroite collaboration avec les responsables d'infrastructure et l'équipe sécurité pour le transfert de connaissances Standardiser et documenter les configurations réseau/sécurité : runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité), procédures d'exploitation, guides de dépannage Former les équipes internes sur les bonnes pratiques d'exploitation F5 et Check Point 3. Accompagnement transformation microservices Contribuer à la définition de l'architecture réseau et sécurité pour la plateforme microservices cible Concevoir les patterns de sécurisation : segmentation réseau (East-West), service mesh (mTLS), ingress/egress, micro-segmentation Définir les politiques de filtrage, stratégies de load balancing applicatif, WAF et protection DDoS pour les services conteneurisés Accompagner les architectes sur les choix technologiques (ingress controllers, service mesh, network policies Kubernetes) Intégrer les principes de sécurité Zero Trust et defense-in-depth dans l'architecture microservices COMPÉTENCES TECHNIQUES REQUISES Obligatoires F5 BIG-IP : maîtrise confirmée LTM (load balancing), GTM (GSLB), ASM/Advanced WAF, configuration avancée VIPs/pools/nodes, SSL o]loading, iRules/iApps, haute disponibilité et monitoring Check Point : expertise firewalls (R80.x/R81.x), SmartConsole, règles de filtrage avancées, NAT/PAT, VPN (site-to-site, remote access), ClusterXL, logs et troubleshooting Routage et switching : LAN/WAN, protocoles BGP, OSPF, MPLS, segmentation VLAN/VRF, notions de SD-WAN, Azure networking : ExpressRoute, VNet, NSG, Azure Firewall, Application Gateway, Tra]ic Manager, Azure Monitor Architecture DRP : geo-clusters, réplication Appréciées Firewalls Fortinet, Palo Alto Network Load balancers alternatifs : Nginx, HAProxy, cloud-native ingress controllers Sécurité microservices : service mesh (Istio, Linkerd), mTLS, network policies Kubernetes, Zero Trust Outils d'automatisation réseau : Ansible, Terraform pour configurations réseau/sécurité CERTIFICATIONS SOUHAITÉES F5 Certified BIG-IP Administrator ou F5 Certified Technology Specialist Check Point Certified Security Administrator (CCSA) ou Check Point Certified Security Expert (CCSE) Cisco CCNP Enterprise ou équivalent Microsoft Certified : Azure Network Engineer Associate (AZ-700) ITIL Foundation
Freelance

Mission freelance
Architecte Sécurité Cloud & Données (H/F)

HOXTON PARTNERS
Publiée le
Data Lake
Databricks
IAM

6 mois
650-810 €
Boulogne-Billancourt, Île-de-France
Nous recherchons un Architecte Sécurité Cloud & Données pour l’un de nos clients dans le cadre d’un programme de transformation numérique à dimension internationale. La mission s’inscrit dans la sécurisation des environnements cloud et des plateformes data au sein d’un écosystème en forte évolution. Missions principales : Concevoir des architectures sécurisées pour les environnements cloud et data (Azure et environnements hybrides) Réaliser des évaluations de sécurité sur les services et architectures data et proposer des recommandations Définir les exigences de sécurité pour les projets cloud (identité, intégration, plateformes data/IA) Mettre en place les politiques, standards et bonnes pratiques de sécurité des données Piloter des initiatives de sécurité (choix de solutions, cadrage, mise en œuvre) Accompagner les équipes dans le déploiement sécurisé des workloads et la gestion des risques
Freelance
CDI

Offre d'emploi
Data scientist - (H/F)

CHARLI GROUP
Publiée le
AWS Cloud
Pandas
Python

2 ans
55k-62k €
400-550 €
Courbevoie, Île-de-France
Le Projet Rejoignez une équipe à la pointe de l'innovation pour concevoir, optimiser et industrialiser nos solutions d’Intelligence Artificielle Générative. Au cœur de nos enjeux, vous piloterez l'évolution de nos architectures RAG et de nos systèmes de recommandation pour transformer l'expérience utilisateur. Vous évoluez dans un environnement stimulant où l’expérimentation rencontre les exigences de la mise en production à grande échelle. Vos Missions : En tant qu'Ingénieur IA, votre quotidien s'articule autour de quatre piliers majeurs : 1. Architecture & Développement RAG Conception et optimisation de pipelines hybrides (BM25 + Recherche Vectorielle + Reranking). Expérimentations avancées sur les stratégies HyDE (Baseline, Sélectif, Hybride). Intégration et fine-tuning de LLM via AWS Bedrock (Claude Sonnet / Haiku). 2. Performance & Reranking Déploiement et tests de modèles de reranking (type Qwen) pour affiner la pertinence. Arbitrage constant sur le triptyque : Qualité / Latence / Coût . 3. Data Engineering & Ingestion Gestion du cycle de vie de la donnée : Chunking, génération d’embeddings (Titan) et indexation. Connexion et exploitation des sources de données ( Snowflake, S3 ). 4. Évaluation & Industrialisation Mise en place de frameworks d'évaluation ( RAGAS, DeepEval ) et suivi des métriques clés (nDCG@K, Recall, MRR). Passage à l'échelle des pipelines : robustesse, monitoring et gestion des "edge cases". Votre Stack Technique : Cloud / IA : AWS (Bedrock, Lambda, SageMaker, S3). LLM : Claude (Anthropic). Vector DB & Search : OpenSearch, FAISS. Data : Snowflake, Pandas, Python. Évaluation : RAGAS, DeepEval. Prêt(e) à relever le défi GenAI avec nous ? Postulez dès maintenant !
Freelance

Mission freelance
Data Scientist - Bases de Données Graph & SQL

Sapiens Group
Publiée le
Data science
MySQL
Neo4j

1 an
Meudon, Île-de-France
Contexte Nous recherchons un profil jeune et motivé pour rejoindre notre équipe en tant que Data Scientist orienté gestion et modélisation de bases de données. Missions Concevoir, modéliser et administrer des bases de données, notamment orientées graphe Manipuler et exploiter des données via Neo4j et MySQL Participer à la structuration et à l’optimisation des flux de données Contribuer à des projets innovants nécessitant une forte compréhension des données Pourquoi nous rejoindre ? Environnement dynamique et innovant Projets concrets avec un impact réel Possibilité d’évolution et montée en compétences Si vous êtes passionné par la donnée et souhaitez vous investir dans un projet ambitieux, ce poste est fait pour vous.
Freelance
CDI

Offre d'emploi
Consultant Privacy & protection des données - Environnement IT - TOULOUSE

Ewolve
Publiée le
Data privacy
DORA
IA

2 ans
40k-45k €
400-500 €
Toulouse, Occitanie
Au sein d’un acteur majeur du secteur bancaire, vous intervenez dans un environnement SI complexe, multi-plateformes et à forts enjeux réglementaires. Intégré(e) à une équipe Privacy en lien étroit avec les équipes IT, Sécurité et Métiers, vous accompagnez les projets digitaux, data et IA sur l’ensemble du périmètre Banque & Assurance. Poste basé à Toulouse, 50% de télétravail. Vos missions - Privacy by Design & Accompagnement projets IT Intervenir dès les phases de cadrage projet pour identifier les traitements de données personnelles Analyser les flux de données et architectures applicatives Identifier les données à caractère personnel et qualifier les risques associés Définir et formaliser les exigences RGPD en lien avec les architectes, RSSI et équipes sécurité Participer à la recette des exigences (durées de conservation, habilitations, traçabilité, purges…) Documenter les livrables RGPD selon les standards internes et référentiels CNIL - Analyses d’impact & gestion des risques Rédiger et piloter les AIPD / PIA en coordination avec les Métiers, DPO et filières juridiques Évaluer les risques en matière de protection des données Proposer des plans de remédiation opérationnels Assurer le support en cas de violations de données et demandes d’autorités - Projets Data & Intelligence Artificielle Accompagner les projets intégrant des solutions d’IA (chatbots, scoring, outils d’aide à la décision…) Contribuer à l’analyse des risques au regard du RGPD et du futur cadre IA (IA Act) Participer à la qualification des systèmes à risque Contribuer à la mise en place de dispositifs de transparence et de gouvernance des modèles - Cookies & outils digitaux Analyser les dispositifs de traceurs (tags, scripts tiers, outils de consentement) Vérifier la conformité des implémentations techniques Accompagner les équipes digitales dans le paramétrage et la gouvernance des outils - Veille & sensibilisation Assurer une veille active sur les évolutions réglementaires (RGPD, IA Act, DORA, eIDAS v2…) Contribuer à la diffusion des bonnes pratiques en matière de protection des données Participer à la montée en compétence des équipes projets et métiers
Freelance

Mission freelance
Directeur de Projet DATA F/H

SMARTPOINT
Publiée le
AWS Cloud
Big Data
Hortonworks Data Platform (HDP)

12 mois
600-700 €
Paris, France
Mission principale Le Directeur de Projet Data a pour mission de piloter des projets Data & IA structurants, en assurant la coordination des équipes internes et des centres de services (CDS). Il garantit la tenue des engagements en termes de qualité, de budget et de délais, tout en assurant l’alignement avec les objectifs métiers et IT. Tâches & activités Piloter l’activité projet : planification, suivi des charges, gestion des budgets et des ressources Animer et coordonner les équipes projets (internes et CDS) Organiser et conduire les instances de gouvernance (COPIL, COPROJ) Cadrer les besoins métiers et techniques en lien avec les parties prenantes Assurer le suivi global des projets et le reporting auprès de la direction Identifier et gérer les risques, dépendances et points de blocage Garantir la bonne exécution des engagements projets dans le respect des délais et des coûts Livrables & résultats attendus Suivi hebdomadaire de l’avancement des projets (planning, risques, actions) Suivi financier mensuel des projets (budget, consommation, forecast) Préparation et animation des comités de pilotage et comités projet Production de reportings de synthèse à destination des directions métiers et IT Respect des engagements qualité, délais et budget Compétences techniques Maîtrise des outils de gestion de projet (Jira) Connaissance de l’environnement Cloud AWS Utilisation des outils ITSM (ServiceNow) Vision globale des écosystèmes Data et outils décisionnels (BI, Data Platform, IA) Bonne compréhension des architectures Data et des enjeux de transformation digitale Compétences comportementales (recommandées) Leadership et capacité à coordonner des équipes multi-acteurs Excellente communication et sens du reporting Rigueur, organisation et gestion des priorités Capacité d’analyse et de synthèse Esprit de pilotage orienté résultats
Freelance

Mission freelance
Consultant(e) Senior Data Migration SAP (Alteryx)

Signe +
Publiée le
Alteryx
Data management
Migration

6 mois
500-570 €
Toulouse, Occitanie
Bonjour, Nous recherchons un(e) Consultant(e) SAP Data Migration (Senior) pour un client basé à Toulouse : Contexte : Intervention dans le cadre de programmes de transformation SAP S/4HANA avec reprise de données issues d’environnements ECC. Les enjeux portent sur la migration de données, leur qualité, leur transformation ainsi que l’industrialisation des traitements. Profil : Expertise en data migration SAP (S/4HANA / ECC) 5 à 10 ans d’expérience minimum sur des projets de migration de données Maîtrise des problématiques de reprise de données (Master Data et données transactionnelles), qualité et transformation des données Environnement : SAP S/4HANA, ECC, outils de migration (Migration Cockpit, LTMOM ou équivalent), Alteryx apprécié ou outils ETL équivalents Autonomie, capacité à intervenir en hands-on, à structurer les travaux et à encadrer ponctuellement des profils juniors, bon relationnel, anglais professionnel requis Démarrage : Mai / Juin 2026 (flexible) Durée : 6 mois minimum (prolongation probable) Couverture : Temps plein Hybride : Toulouse + télétravail (1 à 2 jours sur site / semaine, déplacements ponctuels à Paris) TJM : Selon profils (max 570€) Vous êtes intéressé(e), merci de m’adresser votre CV à Cordialement Célian Mahieu Signe + 07 50 75 68 53
CDI
Freelance

Offre d'emploi
Data Engineer

KP2i
Publiée le
CI/CD
Cortex XSOAR
DBT

1 an
40k-45k €
400-550 €
Île-de-France, France
🚀 Data Engineer – 5+ ans d’XP | anglais requis | dispo ASAP ? Je recherche un Data Engineer pour une mission chez un grand compte international, au sein d’une équipe Data E-Commerce en forte croissance. 👉 Le contexte Des projets stratégiques autour de la Customer Data Platform, du CRM et des audiences digitales, avec de forts enjeux de performance, d’attribution et de structuration de la donnée. 👉 Ce que vous allez faire Construire et optimiser des pipelines data Structurer et modéliser la donnée (data marts, CDP) Contribuer à la performance e-commerce & CRM Collaborer avec les équipes Data Science Automatiser et industrialiser les process (CI/CD) 👉 Stack Snowflake • DBT • AWS • SQL • Power BI / Tableau 👉 Bonus ++ Appétence IA for delivery (Cortex, automatisation DBT, génération de code, optimisation des pipelines data) 👉 Infos clés 5+ ans d’expérience requis Anglais obligatoire Démarrage : ASAP 📩 Vous êtes disponible rapidement ou connaissez quelqu’un ? Écrivez-moi en MP.
CDI

Offre d'emploi
Product Ower / Data manager pour le datalake OWEY - /X F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
Gitlab
JIRA

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer – Tracking & Analytics

Nicholson SAS
Publiée le
BigQuery
Google Tag Manager
Looker Studio

7 mois
340 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d'une refonte majeure des outils de mesure d'audience, nous recherchons un Data Engineer pour accompagner la migration de l'écosystème analytics (transition de Adobe Analytics vers Piano Analytics ). Intégré(e) au département Solutions Digitales au sein d’une équipe agile, vous serez le garant de la collecte, de la transformation et de la restitution des données issues des canaux digitaux. La mission repose sur une exploitation avancée de la suite Google Data (GTM, BigQuery, Looker Studio). Missions principales 1. Implémentation & Tracking Accompagner les métiers dans la définition des besoins en tracking et des KPI associés. Assurer le paramétrage via Google Tag Manager (GTM) . Réaliser la recette des données lors des phases de test et après mise en production des features. 2. Engineering & Data Pipeline Concevoir et maintenir les flux d'ingestion de données vers BigQuery . Développer des scripts de transformation et d'ingestion (principalement en Node.js et Python ). Assurer le monitoring quotidien des flux (interventions et correctifs si nécessaire). Intégrer de nouvelles sources de données pour enrichir le pilotage global du projet. 3. Restitution & Analyse Fiabiliser et mettre à disposition les données dans Looker Studio . Analyser les données produites pour en extraire des enseignements actionnables. Contribuer à l'amélioration continue des processus et des méthodes de l'équipe. 4. Collaboration Agile Interagir étroitement avec les différents corps de métier (PO, UX, Architectes, Développeurs, Testeurs) pour la co-construction des fonctionnalités. Participer activement aux rituels du train Agile. Modalités pratiques Lieu : Niort (79) – Présence sur site obligatoire 3 jours/semaine . Démarrage : ASAP. Durée : Jusqu'au 31/12/2026. Budget d'achat max : 340 € HT / jour.
Freelance
CDI
CDD

Offre d'emploi
Architecte Data Senior AWS / Databricks (H/F)

SMARTPOINT
Publiée le
Architecture
AWS Cloud
Databricks

1 an
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre de projets data à forte valeur ajoutée, nous recherchons un Architecte Data Senior capable de concevoir, implémenter et optimiser des architectures data modernes sur AWS et Databricks . Vous accompagnerez les équipes techniques et métiers dans la mise en place de plateformes data scalables , l’industrialisation des pipelines de données et le développement de cas d’usage avancés en intelligence artificielle et IA générative . Conception d’architectures data Définir et concevoir des architectures data cloud modernes (Data Lake, Lakehouse, Data Platform). Concevoir des architectures scalables sur AWS et Databricks . Définir les standards techniques et bonnes pratiques data . Réaliser des études d’architecture et cadrages techniques . Développement et industrialisation Concevoir et développer des pipelines de données et pipelines d’ingestion . Mettre en œuvre des architectures de traitement de données performantes. Développer des solutions de traitement et d’analyse de données à grande échelle. Contribuer à l’industrialisation des projets via MLOps et DevOps . IA et innovation Concevoir et mettre en œuvre des cas d’usage IA avancés , notamment en IA Générative . Participer au cadrage de cas d’usage data et IA innovants . Implémenter des solutions utilisant LLM, Transformers, RAG ou fine-tuning . Développer des Proof of Concept (PoC) et accompagner leur industrialisation. Expertise technique et accompagnement Réaliser des revues et audits de code . Accompagner les équipes data et projets dans les choix technologiques. Participer à la résolution d’incidents complexes et au support expert . Contribuer à l’amélioration continue des socles techniques et architectures data .
CDI
Freelance

Offre d'emploi
Product Owner IA (H/F)

STORM GROUP
Publiée le
IA

3 ans
50k-60k €
500-600 €
Île-de-France, France
Principales missions : • Vision & Stratégie Produit IA : Porter la vision produit des solutions d’IA en étroite collaboration avec les équipes métier. Cela inclut d’identifier les opportunités d’usage de l’IA au service du Risque, du Paiement, du Digital et des autres lignes métiers, et de prioriser les projets en conséquence (focus valeur et faisabilité). • Gestion du Backlog & Priorisation : Être garant de la priorisation des initiatives Data Science/IA. Vous traduisez les besoins métier en features et user stories, alimentez et maintenez le backlog, et arbitrez les priorités en fonction de la valeur ajoutée attendue, du feedback utilisateur et des contraintes (réglementaires, techniques, ROI). Votre objectif est de maximiser l’impact business de chaque sprint livré. • Pilotage du Delivery Agile : Piloter la delivery des projets IA en méthodologie agile. Vous organisez et animez les cérémonies Scrum/Kanban (planification, revues, démonstrations, rétrospectives), suivez l’avancement des développements, et assurez la levée des obstacles en coordination avec les autres départements. Vous veillez au respect des engagements de qualité, budget et délais, et communiquez de manière proactive sur l’avancement auprès des sponsors. • Coordination Métiers–Data–IT : Jouer le rôle d’interface et de facilitateur entre les équipes Data Science, les équipes IT (architectes, MLOps, sécurité…) et les métiers sponsors. Vous travaillez en collaboration étroite avec les experts métier pour co-construire les solutions et favoriser leur adoption, tout en intégrant les contraintes techniques avec les équipes Data/IT pour une implémentation fluide. • Crédit & Risque (Scoring) – Use cases « Machine Learning » traditionnels : Sur ce pilier clé, vous pilotez les évolutions des modèles de scoring crédit (scoring d’octroi, scores comportementaux). En lien direct avec les équipes Risque et Validation, vous concevez et suivez les projets d’optimisation des scores existants et le développement de nouveaux modèles, en explorant des approches innovantes (par ex. nouvelles données, algorithmes avancés). Vous vous assurez que les modèles délivrés contribuent à la stabilité du coût du risque (suivi des KPIs de performance) et respectent les exigences réglementaires. Vous veillez également à la mise en production et au monitoring de ces modèles (détection de dérive, recalibrage), en collaboration avec les Data Scientists et Analystes Risque. • IA Générative & Agents : Vous explorez et déployez les cas d’usage liés à l’IA Générative pour transformer nos processus internes et la relation client. Concrètement, vous pilotez des projets d’agents IA (chatbots avancés, assistants cognitifs, systèmes à base de LLM, approches RAG – Retrieval-Augmented Generation). Par exemple, vous pourrez lancer des MVP d’agents pour automatiser l’analyse de documents complexes, assister les équipes internes (Audit, Marketing…) ou enrichir le support client. Vous définissez les objectifs et indicateurs de succès de ces projets, supervisez les étapes de prototypage et de déploiement en production, et veillez à mettre en place des architectures agentiques robustes pour ces solutions. Vous aurez aussi à cœur d’évaluer et optimiser les performances de ces agents (cohérence des réponses, pertinence, diversité), en vous appuyant sur des méthodologies de pointe (par ex. LLM as a Judge pour la qualité des réponses). L’enjeu est de concrétiser les promesses de l’IA générative tout en garantissant un usage responsable et efficace pour l’entreprise.
Freelance

Mission freelance
Data Engineer / Data Platform Engineer (H/F)

INFOGENE
Publiée le
Data Engineering
Finance
Python

6 mois
Paris, France
Contexte Dans un environnement financier exigeant, CFM souhaite moderniser et fiabiliser son système de gestion des prix de marché (equities, futures, bonds, IRS…). Le système actuel, basé sur des infrastructures legacy, manque de visibilité, de performance et de robustesse, rendant les opérations complexes et peu fiables pour les équipes support et data. Objectif de la mission Concevoir et développer une plateforme centralisée de gestion et de visualisation des prix , permettant de suivre l’ensemble du cycle de vie des données et d’améliorer les opérations quotidiennes. Missions principales Concevoir une architecture cible scalable et robuste Développer une API Python exposant les données de prix et leur cycle de traitement Implémenter des services backend pour : suivi des statuts des prix gestion des événements et anomalies opérations en masse (validation, rejet, reprocessing) Mettre en place des interfaces utilisateurs : dashboard opérateur interface d’administration visualisation des workflows et historiques Améliorer la traçabilité des données (origine, transformation, blocages) Optimiser les performances et la gestion des volumes Documenter les solutions et accompagner les équipes
4115 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous