Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 016 résultats.
Freelance

Mission freelance
Chef de Projet MOA – Compliance / Front Office Surveillance

ABSIS CONSEIL
Publiée le
Agile Scrum
Big Data
Elasticsearch

1 an
570-620 €
Paris, France
Contexte de la mission Dans le cadre de programmes réglementaires à forte visibilité, une organisation spécialisée dans les activités de marchés financiers renforce un dispositif de surveillance des conduites Front Office à l’échelle mondiale. La mission s’inscrit dans un programme IT réglementaire structurant , visant à industrialiser et déployer une plateforme de monitoring des communications et des comportements (trading, ventes, communications électroniques, ordres et transactions), en remplacement d’un outil existant. Les enjeux sont forts : délais réglementaires contraints, coordination multi‑équipes, forte exposition métier et conformité , dans un environnement international et anglophone. Mission En tant que Chef de Projet MOA – Compliance / Front Office Surveillance , vous interviendrez sur la gestion et la livraison des évolutions clés liées aux données collaborateurs et communications au sein de la plateforme de monitoring. Vous travaillerez en mode agile , en lien étroit avec les équipes métier, IT et data, avec un objectif clair : livrer rapidement un maximum de valeur fonctionnelle , tout en garantissant la conformité réglementaire. Responsabilités principales Recueillir, analyser et formaliser les besoins fonctionnels , cas d’usage et spécifications Challenger les exigences avec les équipes Data et IT afin d’assurer leur faisabilité technique Collaborer avec les sponsors métier, équipes conformité, supervision de plateforme et management Coordonner les travaux avec le chef de projet et les équipes projet (interne et externe) Piloter les activités en méthodologie agile (sprints, priorisation, suivi des livrables) Contribuer à la définition et à la mise en œuvre d’une stratégie data intégrant des approches d’analyse avancée (NLP, machine learning) Superviser le développement et l’évolution de solutions logicielles (ingestion de données de communication, gestion des flux, data management) Rédiger les spécifications fonctionnelles et techniques Élaborer les plans de tests, scripts de recette , organiser et animer les sessions UAT jusqu’à validation métier Gérer plusieurs sujets en parallèle dans un contexte à forte contrainte de planning
CDI

Offre d'emploi
Consultant Data Analyst Direction Financière F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Oracle Database
Python
SQL

Puteaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Architecte modélisation data

Freelance.com
Publiée le
Architecture
Big Data

6 mois
100-600 €
Paris, France
📍 Infos pratiques 📍 Localisation : Paris (2 jours TT) 📅 Démarrage : ASAP 📆 Visibilité : mission longue (jusqu’à fin 2026) Dans le cadre d’un programme de transformation Data B2B , nous recherchons un profil orienté architecture et modélisation métier , capable d’intervenir en amont des développements pour structurer un modèle data cible robuste. 👉 ⚠️ Important : ce n’est PAS un poste de Data Engineer 👉 Le besoin est centré sur la conception, l’abstraction et la structuration de la donnée 🎯 Ce que le client attend réellement ✔ Construire une vision 360 des données B2B ✔ Définir les objets métiers clés (Client, Contrat, Parc, Facture, Usage…) ✔ Concevoir le modèle de données cible (Core Model) ✔ Définir les règles de gestion (RCU / unicité client / hiérarchies) ✔ Analyser les sources legacy et faire le lien avec la cible ✔ Structurer un dictionnaire de données (Business Glossary) ✔ Travailler en lien direct avec les équipes métier 👉 Positionnement attendu : Architecte Data fonctionnel / Data Modeler senior 🧠 Responsabilités Modélisation des données (logique & métier) Définition des règles de gestion (vision client / référentiels) Analyse des écarts entre SI existant et cible Contribution à la gouvernance (catalogue, qualité de données) Support aux équipes Data & métiers Pourquoi c’est intéressant ? ✔ Projet stratégique (transformation data complète) ✔ Forte dimension architecture & conception ✔ Impact direct sur la structuration des données du groupe
Freelance

Mission freelance
Expert en Migration de Données H/F

SPIE ICS
Publiée le
Data analysis
Data Engineering
Migration

3 mois
400-580 €
Hauts-de-Seine, France
Nous recherchons pour notre client basé dans les Hauts-de-Seine (92) un Consultant en Migration de Données qui pilotera l’ensemble du processus de migration, de la préparation à la mise en production, afin de garantir la qualité et la cohérence des données. Missions principales : Accompagner les équipes locales de la définition de la stratégie à la validation métier des données. Gérer les phases MOCK1, MOCK UAT et chargement en production. Analyser en première ligne les anomalies détectées. Soutenir les responsables applicatifs pour la propagation des données. Être garant de la méthodologie DTM, définir la stratégie de nettoyage des données et suivre les KPIs. Maintenir les modèles de migration, outils, rapports et la bibliothèque de connaissances. Arbitrer les écarts méthodologiques et gérer les demandes de déviation. Former et animer la communauté des experts en migration (DME).
CDI

Offre d'emploi
PRODUCT DATA ANALYST F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
BigQuery

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDD
CDI
Freelance

Offre d'emploi
Data Analyst en Full Remote (Lyon)

R&S TELECOM
Publiée le
IA Générative
Snowflake
SQL

6 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Au sein de la DSI, le projet concerné est une plateforme digitale transversale inscrite dans les objectifs digitaux 2026 du client. Elle s’intègre dans la chaîne de valeur Commerciale et contribue à la stratégie globale de transformation digitale. Le projet permet une capacité de type “Talk to your data” : une interface en langage naturel permettant aux collaborateurs de poser des questions et d’obtenir des réponses sans expertise technique. Aujourd’hui, 35 utilisateurs exploitent la plateforme, avec un objectif de 700+ utilisateurs d’ici fin 2026. La mission porte principalement sur le backend et la couche sémantique, afin de permettre à l’agent IA (LLM) de générer des requêtes SQL fiables à partir des demandes utilisateurs. L’environnement technique repose sur Snowflake, incluant les fonctionnalités AI Cortex. Tâches à réaliser : Compréhension Fonctionnelle & Cohérence Produit Assurer l’alignement entre les besoins métier et les capacités de la solution. Maintenir la cohérence fonctionnelle et la qualité du produit Coordination & Gestion des Exigences Collaborer avec les fournisseurs de données pour clarifier les besoins et garantir la disponibilité des données. Travailler étroitement avec le Product Owner pour affiner et prioriser les fonctionnalités. Contribution aux User Stories & au Backlog Participer à la rédaction des user stories (définir ce qui doit être fait). Définir les fonctionnalités du produit et contribuer à la planification des releases. Prioriser les fonctionnalités et ajuster le périmètre à chaque itération. Garantir la préparation des user stories pour le développement. Accepter ou rejeter les résultats livrés selon les critères définis. Assurance Qualité Contribuer à la création et à l’exécution des cas de test. Valider les modèles de données et leur adéquation aux besoins analytiques. Participer aux contrôles de qualité des données et aux tests fonctionnels. Compétences recherchées : Obligatoires : Maîtrise avancée de SQL et expérience confirmée sur Snowflake. Solides compétences en modélisation de données. Expérience en data quality, testing et validation. Connaissance des concepts IA / GenAI appréciée. Expérience précédente sur des projets orientés données. Excellentes capacités de communication et de coordination. Capacité à traduire les besoins métier en exigences techniques. Optionnelles : Expérience dans l’industrie pharmaceutique (domaine commercial idéalement). Connaissance de Snowflake AI Cortex. Excellentes compétences Excel. Expérience sur des plateformes data à grande échelle ou des couches sémantiques Expérience nécessaire : 3 années minimum d’expérience sur la fonction Méthodologie : Agile Langues : Anglais (Courant - Niveau C1) Localisation : Full Remote mais rattachée aux locaux O situés à Lyon Possibilité d’interventions hors site Client : OUI (100% - Réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : NON Déplacements sur d'autres site client en France : NON Autre matériel requis : NON
Freelance
CDI

Offre d'emploi
Data Engineer SENIOR

Tritux France
Publiée le
Cloud
Data Lake
Pandas

3 ans
40k-45k €
400-470 €
Île-de-France, France
Objectif de la mission Au sein d’une équipe produit, vous interviendrez sur la conception, le développement et l’industrialisation de pipelines de données complexes, dans un environnement technique moderne et orienté performance. Votre objectif principal est de garantir des solutions data : Scalables Maintenables Alignées avec les standards d’architecture et de qualité Missions & responsabilités Ingénierie & Développement Concevoir et développer des pipelines de données robustes et performants Participer à la définition et à la mise en œuvre d’architectures data Garantir la qualité du code (Clean Code, DDD, peer review) Documenter les solutions Industrialisation Mettre en place des mécanismes d’observabilité (monitoring, logs, alerting) Optimiser les performances et les coûts (FinOps Data) Assurer la sécurité et la conformité des données Expertise & Collaboration Traduire les besoins métier en solutions techniques Contribuer aux rituels agiles et à la conception des user stories Résoudre les incidents de production et anticiper les risques Collaborer avec les équipes transverses Participer au partage des bonnes pratiques
Freelance

Mission freelance
INGÉNIEUR(E) RÉSEAU & SÉCURITÉ CONFIRMÉ(E)

Craftman data
Publiée le
Ansible
Azure
Check Point

3 mois
320-710 €
Le Havre, Normandie
MISSIONS PRINCIPALES 1. Audit et consolidation de l'existant (prioritaire) Réaliser un audit complet de l'architecture réseau et sécurité : cartographie des flux, segmentation réseau, politique de sécurité, configuration F5 et Check Point Valider et mettre à jour les documentations techniques, schémas de flux applicatifs et matrices de filtrage Réviser et proposer des amélioriations des configurations load balancing F5 (LTM, GTM, ASM/WAF) : VIPs, pools, health checks, SSL o]loading, iRules Réviser et proposer des amélioriations des configurations firewalls Check Point : règles de filtrage, NAT/PAT, VPN site-to-site et remote access, haute disponibilité ClusterXL Analyser les configurations BGP (annonces, policies, route-maps, geo-clusters DRP) et connectivités Azure ExpressRoute Identifier les vulnérabilités, points de fragilité et non-conformités, formuler des recommandations correctives priorisées 2. Transfert de compétences et accompagnement des équipes (prioritaire) Travailler en étroite collaboration avec les responsables d'infrastructure et l'équipe sécurité pour le transfert de connaissances Standardiser et documenter les configurations réseau/sécurité : runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité), procédures d'exploitation, guides de dépannage Former les équipes internes sur les bonnes pratiques d'exploitation F5 et Check Point 3. Accompagnement transformation microservices Contribuer à la définition de l'architecture réseau et sécurité pour la plateforme microservices cible Concevoir les patterns de sécurisation : segmentation réseau (East-West), service mesh (mTLS), ingress/egress, micro-segmentation Définir les politiques de filtrage, stratégies de load balancing applicatif, WAF et protection DDoS pour les services conteneurisés Accompagner les architectes sur les choix technologiques (ingress controllers, service mesh, network policies Kubernetes) Intégrer les principes de sécurité Zero Trust et defense-in-depth dans l'architecture microservices COMPÉTENCES TECHNIQUES REQUISES Obligatoires F5 BIG-IP : maîtrise confirmée LTM (load balancing), GTM (GSLB), ASM/Advanced WAF, configuration avancée VIPs/pools/nodes, SSL o]loading, iRules/iApps, haute disponibilité et monitoring Check Point : expertise firewalls (R80.x/R81.x), SmartConsole, règles de filtrage avancées, NAT/PAT, VPN (site-to-site, remote access), ClusterXL, logs et troubleshooting Routage et switching : LAN/WAN, protocoles BGP, OSPF, MPLS, segmentation VLAN/VRF, notions de SD-WAN, Azure networking : ExpressRoute, VNet, NSG, Azure Firewall, Application Gateway, Tra]ic Manager, Azure Monitor Architecture DRP : geo-clusters, réplication Appréciées Firewalls Fortinet, Palo Alto Network Load balancers alternatifs : Nginx, HAProxy, cloud-native ingress controllers Sécurité microservices : service mesh (Istio, Linkerd), mTLS, network policies Kubernetes, Zero Trust Outils d'automatisation réseau : Ansible, Terraform pour configurations réseau/sécurité CERTIFICATIONS SOUHAITÉES F5 Certified BIG-IP Administrator ou F5 Certified Technology Specialist Check Point Certified Security Administrator (CCSA) ou Check Point Certified Security Expert (CCSE) Cisco CCNP Enterprise ou équivalent Microsoft Certified : Azure Network Engineer Associate (AZ-700) ITIL Foundation
Freelance

Mission freelance
Business Analyst Data - Flux Transactionnels Bancaires

STHREE SAS
Publiée le

12 mois
75001, Paris, Île-de-France
Business Analyst Data - Flux Transactionnels Bancaires (H/F) Localisation : Paris Type de mission : Freelance Démarrage : ASAP Durée : Long terme Secteur : Banque Contexte Dans le cadre d'un projet stratégique, nous recherchons un Business Analyst Data pour intervenir sur des problématiques liées aux flux transactionnels bancaires et aux données clients , dans un environnement à forts enjeux opérationnels. Missions principales Analyse des flux transactionnels bancaires (bout-en-bout) Suivi des délais de traitement et indicateurs de performance (SLA, T+X) Rédaction des spécifications fonctionnelles data Mapping et analyse des données clients et flux de données Participation aux phases de recette fonctionnelle (UAT) Analyse et résolution des anomalies en production (RUN) Coordination avec les équipes métiers, IT et data Profil recherché Expérience confirmée en tant que Business Analyst Data en environnement bancaire Expérience sur des flux transactionnels (paiements, cash management, virements, etc.) Bonne maîtrise de SQL (analyses et contrôles de données) Bonne compréhension des problématiques de qualité des données Expérience en environnement DataLake (vision fonctionnelle attendue) Capacité à intervenir en BUILD et RUN 👉 Anglais conversationnel professionnel indispensable Compétences appréciées (fortement valorisées) Reverse engineering Data protection Data governance / data management Connaissance d'un core banking (type SAB ) Maîtrise des concepts : Conceptual Data Model Logical Data Model Physical Data Model Compétences requises Analyse fonctionnelle Data mapping / data quality SQL UAT / Recette Analyse d'incidents Flux transactionnels bancaires Non retenu pour ce poste Profils orientés crédit / risque / réglementaire Profils BI / reporting uniquement Profils data engineer / architecte Informations complémentaires Environnement exigeant avec forte volumétrie de données Interaction transverse métiers / IT / Data Mission avec impact direct sur les opérations bancaires
Alternance

Offre d'alternance
Data Analyst Backend E-commerce (f/m/d) - Alternance

█ █ █ █ █ █ █
Publiée le
Git
Python
SQL

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Architecte Data / Stratégie Plateforme Data Européenne

OBJECTWARE
Publiée le
Apache Kafka
BI
Data Lake

3 ans
40k-73k €
400-550 €
Île-de-France, France
🎯 Objectif de la mission Dans un contexte de transformation data à l’échelle européenne, vous intervenez en tant qu’ Architecte / Consultant Senior Data pour structurer, rationaliser et industrialiser la plateforme data du groupe. Vous accompagnez la définition de la stratégie cible, la gouvernance et la trajectoire de migration vers une plateforme data unifiée, scalable et conforme aux contraintes réglementaires (RGPD, localisation des données, sécurité). 🧩 Missions principales🔎 1. Diagnostic des plateformes data existantes Réaliser une cartographie complète des plateformes data existantes Analyser les architectures de bout en bout (de l’ingestion à l’usage métier) Étudier l’organisation, les rôles et responsabilités Identifier les dépendances techniques et fonctionnelles Recenser et prioriser les cas d’usage Data, BI et IA Intégrer les contraintes réglementaires (RGPD, souveraineté des données) 🏗️ 2. Définition de la stratégie data cible Concevoir une architecture cible de plateforme data pan-européenne Travailler avec les équipes d’architecture groupe Recommander les choix technologiques (cloud, data platforms, outils) Définir un modèle de gouvernance data transverse (business lines) Fixer les principes de scalabilité, industrialisation et performance 🔁 3. Stratégie de migration & roadmap Construire une roadmap de transformation et migration vers la cible Définir les étapes de migration des données et des usages Organiser et animer les ateliers avec les équipes IT et métiers Préparer et suivre les comités de pilotage IT Coordonner les phases de tests, recette et non-régression 🚀 4. Accompagnement des premières phases de delivery Accompagner le démarrage des premières implémentations Garantir la cohérence entre architecture cible et réalisation Assurer un rôle de référent auprès des équipes de delivery
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Python / Azure Sénior

VISIAN
Publiée le
Azure Data Factory
Azure DevOps
Python

1 an
Paris, France
Contexte La Direction des Systèmes d’Information recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l’exploitation des données. Missions Mener les projets d’intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d’optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger (Anglais) pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d’optimiser les architectures Contribuer à l’amélioration de la gouvernance sur la protection et la confidentialité des données Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l’entreprise
Freelance
CDI
CDD

Offre d'emploi
Log Manager SOC / SIEM (H/F)

RIDCHA DATA
Publiée le
Backlog management
Security Information Event Management (SIEM)
SOC (Security Operation Center)

1 an
Île-de-France, France
📍 Localisation : Île-de-France / Hybride 📅 Démarrage : Mai 2026 ⏳ Durée : Mission longue (jusqu’à fin 2026) 🚀 Contexte de la mission Dans le cadre du renforcement d’un Security Operations Center (SOC) , nous recherchons un Log Manager / SIEM pour structurer, déployer et industrialiser la gestion des logs de sécurité. 👉 L’objectif est d’améliorer la collecte, la qualité et l’exploitation des logs afin de renforcer les capacités de détection et de réponse aux incidents. 🎯 Vos missions 🔍 Cadrage & structuration Analyser les sources de logs existantes et identifier les gaps Définir les besoins en collecte et exploitation des logs Participer à la formalisation des besoins (cadrage, documentation, RFP si nécessaire) ⚙️ Implémentation & exploitation Mettre en place et optimiser la chaîne de collecte des logs Configurer les flux : collecte, parsing, normalisation, enrichissement Assurer l’intégration des sources dans le SIEM Garantir la qualité, la cohérence et la complétude des logs Participer aux phases de tests, validation et mise en production 📊 Amélioration continue Optimiser les performances et la volumétrie des flux Assurer le maintien en condition opérationnelle de la chaîne de collecte Documenter les processus et procédures (run, troubleshooting) Accompagner les équipes SOC dans l’exploitation des logs 🛠️ Environnement technique SOC / SIEM Log management Collecte et traitement des logs (parsing, normalisation, enrichissement) Protocoles de collecte et sécurisation des flux Environnements hybrides (on-premise / cloud) Contraintes de volumétrie, performance et résilience
CDI

Offre d'emploi
Senior Data Scientist - Ecommerce (f/m/d) (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
Git
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Chef de projet DATA / Delivery Master DATA

DATAMED RESEARCH
Publiée le
Animation
Gestion de projet
Pilotage

12 mois
40k-65k €
450-630 €
Paris, France
Objectifs et livrables Dans le cadre de cette mission, le Delivery Master Data sera responsable de la coordination et de l’accompagnement des équipes projets afin d’assurer la bonne livraison des initiatives Data. Il occupe un rôle central à l’interface entre les équipes techniques, les chefs de projet et les parties prenantes métiers. Missions principales 1. Pilotage des projets Data Planifier et organiser les projets de bout en bout, de la phase d’étude jusqu’à la mise en production Coordonner les équipes multidisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI et mettre en place des plans d’actions correctifs si nécessaire 2. Gestion de la qualité et des délais Garantir le respect des délais et des standards de qualité Veiller à l’application des bonnes pratiques en matière de Data Governance, sécurité et conformité 3. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective…) Favoriser une culture d’amélioration continue et de collaboration 4. Communication et gestion des parties prenantes Assurer une communication fluide entre les équipes internes, les clients et les partenaires Préparer et animer les comités de pilotage et de suivi Gérer les attentes clients et accompagner les évolutions des projets 5. Optimisation des processus Identifier les axes d’amélioration des processus de delivery Mettre en place des actions d’optimisation et d’automatisation Améliorer l’efficacité opérationnelle des équipes
Freelance
CDI

Offre d'emploi
Data & AdTech Developpeur H/F

OBJECTWARE
Publiée le
Python
SQL

3 mois
Rennes, Bretagne
Nous recherchons un Data & AdTech Developpeur H/F pour une mission à Rennes. Missions : Organiser, fiabiliser et valoriser les données au sein de la CDP Garantir la qualité et la cohérence des données exploitées Concevoir et maintenir les flux d’ingestion et de transformation (Python, SQL) Intégrer les différentes sources de données de l’entreprise Concevoir et maintenir des dashboards de suivi Créer des solutions permettant d’accélérer les opérations marketing Intégration de solutions AdTech (alternives IDs, dsp Equativ & The Trade Desk…) Technos : Langages : Python, SQL Data & Cloud : BigQuery Data visualisation : Metabase AdTech : DSP, solutions de tracking, identity management
5016 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous