Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 764 résultats.
Freelance

Mission freelance
Quality Data/Lead Data Referentiel

Cherry Pick
Publiée le
Finance
IA
Numpy

12 mois
Paris, France
PRÉSENTATION DE LA MISSION Dans le cadre d'un programme de transformation de la qualité des données de marché, vous rejoignez l'équipe DIR (Direction du Référentiel) . Votre rôle est de concevoir, déployer et industrialiser un cadre de contrôle rigoureux pour les actifs financiers (Futures, Yields, FX, Index, Bonds) afin de garantir la fiabilité des modèles de recherche et des décisions de trading. Type de contrat : Freelance Durée : 6 mois Localisation : Paris Environnement technique : Python (Data Stack), SQL, Bloomberg/Reuters API, LLM/IA. 2. MISSIONS ET RESPONSABILITÉS Axe 1 : Audit et Diagnostic (Phase d'Évaluation) Réaliser un audit complet des dimensions de qualité par classe d'actifs. Recenser l'existant (scripts épars, contrôles manuels) et identifier les zones de risque (gaps de couverture). Prioriser le backlog des anomalies historiques en collaboration avec les équipes Recherche et Prédiction. Axe 2 : Industrialisation de la Qualité (Mise en œuvre) Développer une bibliothèque unifiée et modulaire de contrôles (en Python) intégrable aux pipelines de données. Assurer la remédiation du stock historique : investigation des causes racines, correction des données et résolution des litiges avec les fournisseurs (Bloomberg, etc.). Mettre en place des mécanismes de prévention pour bloquer les anomalies dès l'ingestion. Axe 3 : Monitoring et Innovation Concevoir des dashboards de pilotage (KPI) pour monitorer la santé des données en temps réel. Développer un PoC basé sur les LLM pour automatiser la génération de nouveaux contrôles et faciliter l'analyse des causes racines (Root Cause Analysis). Rédiger le Playbook opérationnel (procédures de gestion d'incidents et workflows d'alerte).
Freelance

Mission freelance
Lead Data Engineer - Financial

Phaidon London- Glocomms
Publiée le
AWS Cloud
DBT
Git

6 mois
400-550 €
Paris, France
Piloter l'ingénierie des données de bout en bout sur Snowflake, dbt et SQL, de l'ingestion et la transformation des données sources jusqu'aux jeux de données analytiques prêts pour la production. Concevoir, implémenter et maintenir des modèles de données évolutifs et alignés sur les besoins métiers, en garantissant la cohérence, la réutilisabilité et la performance pour de multiples cas d'utilisation d'analyse et de reporting. Assurer des normes d'ingénierie élevées, notamment en matière de qualité du code, de tests, de documentation et de revues de code par les pairs, tout en promouvant activement les bonnes pratiques au sein de l'équipe. Fournir des jeux de données optimisés pour Tableau et compatibles avec la BI, permettant un reporting en libre-service fiable et des informations exploitables pour les parties prenantes. Agir en tant que contributeur technique senior, en assumant progressivement des responsabilités de leadership technique, notamment : - Encadrer et soutenir les ingénieurs de données juniors et intermédiaires. - Conseiller sur les décisions relatives à l'architecture et à la modélisation des données. - Être le référent technique pour les initiatives axées sur l'analyse.
Freelance

Mission freelance
Lead / Data Engineer senior

Comet
Publiée le
Apigee
Google Cloud Platform (GCP)
Python

5 mois
210-630 €
Île-de-France, France
Bonjour à tous, notamment aux Data Engineers Seniors ⚙️ spécialisés sur GCP / BigQuery 🔎 Je cherche un Data Engineer Senior avec une forte dimension expertise technique et expérience en rôle de lead, pour rejoindre une data platform stratégique en pleine montée en puissance. L’objectif de la plateforme est de centraliser, transformer et exposer la donnée à grande échelle afin de supporter des cas d’usage analytics, BI et IA dans un environnement data moderne. La plateforme est déjà en place et entre dans une phase clé d’optimisation, de scalabilité et d’enrichissement des usages (notamment autour de l’IA). 💻 Ce que tu vas faire : - Concevoir et faire évoluer des pipelines data robustes, scalables et sécurisés - Développer des traitements avancés sur BigQuery (CTE, window functions, optimisation performance & coûts) - Optimiser les requêtes à grande échelle via analyse des plans d’exécution - Concevoir des modèles de données (star / snowflake) pour des usages BI (PowerBI, Looker) - Intégrer des sources de données multiples (API, cloud, bases, fichiers…) - Industrialiser les workflows via CI/CD et Infrastructure as Code (Terraform, Cloud Build) - Contribuer à l’intégration de cas d’usage IA dans les pipelines data - Participer aux choix d’architecture et structurer les bonnes pratiques data 🎯 Stack & environnement : BigQuery / SQL / Python / GCP / Cloud Build / Cloud Workflows / Apigee / Terraform / GitHub / PowerBI / Looker ➕ Bonus : expérience sur des environnements media / digital data (Google Analytics, Salesforce, CRM, social media) 📍 IDF : 2 jours de TT 🏡 📅 Démarrage : ASAP Qu'en penses-tu ? Une belle journée,
CDI

Offre d'emploi
Revenue Data Analyst F/H - Finance, trésorerie (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Voisins-le-Bretonneux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Chef de Programme Data & IA – Product Owner Socle Data & IA

VISIAN
Publiée le
Azure
Azure Data Factory
Data quality

1 an
40k-45k €
400-610 €
Île-de-France, France
Contexte de la mission Dans le cadre de la modernisation d’un socle Data & IA et de la mise en place d’un modèle de décentralisation gouvernée, le Chef de Programme Data & IA intervient en tant que référent transverse sur la plateforme Data & IA. Il est garant de la cohérence entre les enjeux de modernisation technique, d’adoption métier et de gouvernance de la donnée, dans un environnement Data Platform à forte ambition IA. Missions principales 1. Pilotage du programme Data & IA Définir et piloter la roadmap du socle Data & IA Prioriser les initiatives métiers et techniques Participer aux arbitrages d’investissements et au séquencement des chantiers Assurer la cohérence avec le modèle de décentralisation et la stratégie IA 2. Rôle de Product Owner plateforme Recueillir et prioriser les besoins des utilisateurs (métiers, équipes Data & IA, etc.) Piloter le backlog de la plateforme Structurer les releases et le capacity planning Suivre les KPIs de performance (qualité, adoption, stabilité, time-to-market) 3. Chantiers structurants Migration vers une architecture Data Lakehouse (type Databricks / Unity Catalog) Mise en place de la Data Quality industrialisée Déploiement de la Data Observability end-to-end Modernisation de l’offre de service de la plateforme Data 4. Coordination Data & IA Assurer l’interopérabilité entre Data, ML et IA générative Structurer la collaboration entre équipes DataOps et MLOps Préparer la plateforme aux usages IA avancés (exposition Data Products, APIs, etc.) 5. Animation et structuration Clarifier les rôles et responsabilités (RACI) Améliorer les pratiques agiles et les rituels de pilotage Accompagner la montée en maturité des équipes
CDI

Offre d'emploi
Chef(fe) de Projet Déménagements

iDNA
Publiée le
Administration système
Gestion de projet
Réseaux

65k-70k €
Hauts-de-Seine, France
Missions L'équipe infrastructure de notre client intervient sur le socle technique de l'outil de téléconduite, incluant notamment les périmètres systèmes, la virtualisation, le réseau et l'IAM. Son objectif est de maintenir un haut niveau de sécurité et de disponibilité de service, tout en permettant les nombreuses évolutions métiers, techniques et structurelles de cet écosystème. La forte croissance du nombre d'expressions de besoins liés à la sécurité du SI a conduit à la création d'une équipe dédiée, capable d'accompagner l'ensemble des projets d'évolution d'infrastructure et de déménagements. Dans ce cadre, nous recherchons un (e) Chef(fe) de Projet Déménagements . Description de la prestation demandée : Reporting projet Définir, coordonner et superviser l'ensemble des étapes d'un projet, de sa conception jusqu'au déploiement Assurer le cadrage du projet avec la MOA Réaliser l'inventaire du matériel à déménager et lister les éventuels besoins en matériel supplémentaire ou en remplacement Vérifier la conformité des locaux aux attentes et aux exigences de sécurité Identifier l'ensemble des parties prenantes Définir la stratégie de migration et le plan d'action associé Assurer le déménagement Assurer les décommissionnements nécessaires Animer et coordonner toutes les parties prenantes Animer la gouvernance projet, piloter le budget, les ressources et le planning, et assurer le suivi des plans de mitigation des risques Assurer la conduite du changement et la communication Assurer le reporting projet Avantages & Perspectives Localisation : Hauts-de-Seine (TT 2 à 3 jours par semaine) Démarrage mission le 01/06/2026 Rémunération : Package +/- 70 K selon profil (intéressement mis en place en 2015)
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

40k-49k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Collaborer étroitement avec le Business / PO / BA afin d’identifier et transcrire les besoins métiers en KPI (Valoriser les données / aider à la décision en menant des analyses d’indicateurs et des restitutions visuelles) Analyse exploratoire de données en vu d'aide à la décision Business : calcul, production, explication d'indicateurs/KPI bancaire Production de Data Viz en réponse à besoin métier de pilotage d'activités bancaire.
CDI

Offre d'emploi
Data Scientist Senior IA, NLP, LLM

UMANTIC
Publiée le

60k-70k €
France
LE CONTEXTE DE LA MISSION Nous recrutons un(e) Data Scientist confirmé(e).Vous intégrerez la Cellule Innovation du client, en charge du déploiement de sa feuille de route IA 2026-2027. La mission combine exigence technique pointue (NLP, LLM, MLOps), posture d'innovation pragmatique (POC, MVP, test & learn), et compréhension du contexte institutionnel et réglementaire (AI Act, RGPD, gouvernance des données). VOS MISSIONS Vous interviendrez avec un haut niveau d'autonomie sur deux axes complémentaires : ? Développement opérationnel de solutions IA * Recueil et qualification des besoins métiers, animation d'ateliers de cadrage (design thinking, ateliers data). * Conception fonctionnelle et technique des solutions IA en lien avec la DSI, la sécurité et la conformité. * Développement (POC, MVP) et industrialisation : tableaux de bord avancés, modèles prédictifs, solutions NLP (analyse documentaire, résumé, extraction, LLM), outils d'automatisation et d'optimisation des processus métiers. * Mise en production, monitoring, maintenance évolutive et corrective, support N2 sur les solutions IA. * Intégration des exigences réglementaires (AI Act, RGPD) dès la conception des solutions, dans une approche by design. ? Acculturation et renforcement des capacités IA * Conception de parcours de formation différenciés : initiation/acculturation, utilisateurs avancés, profils techniques. * Animation de formations en français et en anglais, création de supports pédagogiques et démonstrateurs. * Organisation et animation d'événements internes : séminaires, ateliers métiers, hackathons, cafés innovation. * Veille technologique (état de l'art LLM, IA générative, MLOps) et réglementaire (AI Act, lignes directrices CNIL). * Contribution à la structuration d'une communauté IA interne durable.
Freelance
CDI

Offre d'emploi
Consultant SAP Data Migration (H/F)

Scalesys
Publiée le

1 mois
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
Freelance

Mission freelance
Développeur DataStage

ARGANA CONSULTING CORP LLP
Publiée le
Big Data
ETL (Extract-transform-load)
IBM DataStage

12 mois
450 €
Joinville-le-Pont, Île-de-France
🔎 Contexte de mission Dans le cadre des projets de la Direction Informatique Groupe (périmètre Sécurité Financière), vous interviendrez sur la mise en œuvre des indicateurs AML au sein de nouveaux outils en cours de développement. La mission s’inscrit dans un environnement bancaire exigeant, avec des enjeux liés à la conformité et au traitement de données financières. 🎯 Missions principales et rôle En tant que Concepteur / Développeur DataStage , vous serez en charge de : Développer les contrats d’interface entre le SI, le DRE et les Datamarts Concevoir et faire évoluer les flux de données liés aux projets AML (LAB, TRACE, etc.) Créer et maintenir les composants d’intégration de données (CI) Développer les packages DataStage associés Participer aux phases de tests et de recette Accompagner les mises en production (MEP) 🚀 Objectifs Assurer la bonne intégration des flux de données dans l’écosystème SI Garantir la qualité, la fiabilité et la conformité des données AML Contribuer à l’évolution des outils de lutte contre le blanchiment 🛠️ Compétences requises Expérience de 3 à 5 ans en développement, idéalement en environnement bancaire ou marchés financiers Maîtrise des environnements Big Data et expertise en ETL DataStage Bonne connaissance de JIRA (obligatoire) Connaissance du périmètre fonctionnel comptabilité multinormes Expérience en méthodologie Agile Anglais professionnel requis
Freelance

Mission freelance
Consultant Senior – Data Migration SAP / Talend (H/F)

KN CONSULTING
Publiée le
Legacy System Migration Workbench (LSMW)
SAP MM
SAP PP

6 mois
400-700 €
Corbeil, Grand Est
Contexte mission Dans un environnement industriel critique, nous recherchons un consultant senior pour intervenir sur une migration de données complexe en difficulté . Le projet nécessite une forte capacité de structuration, de remise à plat et de sécurisation des flux de données. Missions Mise en œuvre de flux de migration via Talend (ETL) Mapping, transformation et réconciliation de données Contrôle des écarts et data quality Mise en place de protocoles de migration Contribution à une approche structurée de type migration factory
CDI
CDD

Offre d'emploi
Data Engineer / DevOps

OCTOGONE
Publiée le
AWS Cloud
Databricks
DevOps

6 mois
Paris, France
Contexte Le rôle vise à apporter l’expertise nécessaire pour soutenir les projets data et l’écosystème Databricks au sein du Groupe. L’équipe met à disposition des environnements d’évaluation et de test, définit les standards et bonnes pratiques d’usage, et accompagne les entités ayant des besoins spécifiques sur des périodes dédiées. Les interlocuteurs sont principalement des Data Specialists et Data Citizens. Les environnements techniques s’appuient sur Databricks AWS et Azure. Les activités se structurent autour de trois axes : • Data Engineering : développement et opérations data • DevOps / DataOps : déploiement, automatisation, Infrastructure-as-Code, administration des plateformes • Expertise : veille technologique, anticipation des évolutions, test et validation des nouvelles fonctionnalités. Description Dans ce contexte, les responsabilités confiées sont les suivantes : 1. Administrer, surveiller et maintenir les espaces de travail Databricks du COE. 2. Élaborer, documenter et faire évoluer les standards, bonnes pratiques et blueprints groupe. 3. Garantir la qualité et la conformité des services fournis aux entités. 4. Accompagner les équipes métiers et data dans l’adoption de l’écosystème Databricks et leur transition vers les normes groupe. 5. Tester, évaluer et recommander les nouvelles fonctionnalités de l’éditeur ou d’outils complémentaires pour améliorer l’expérience globale. 6. Veiller au respect des politiques groupe et accompagner leur mise en œuvre. 7. Contribuer à la conception et à la réalisation des use cases stratégiques portés par les entités. Livrables Dans ce contexte, les responsabilités confiées sont les suivantes : 1. Administrer, surveiller et maintenir les espaces de travail Databricks du COE. 2. Élaborer, documenter et faire évoluer les standards, bonnes pratiques et blueprints groupe. 3. Garantir la qualité et la conformité des services fournis aux entités. 4. Accompagner les équipes métiers et data dans l’adoption de l’écosystème Databricks et leur transition vers les normes groupe. 5. Tester, évaluer et recommander les nouvelles fonctionnalités de l’éditeur ou d’outils complémentaires pour améliorer l’expérience globale. 6. Veiller au respect des politiques groupe et accompagner leur mise en œuvre. 7. Contribuer à la conception et à la réalisation des use cases stratégiques portés par les entités.
CDI

Offre d'emploi
Product Owner Data H/F

JEMS
Publiée le

48k-60k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Product Owner confirmé(e) responsable de l'optimisation de la valeur du produit afin de satisfaire les clients et capable de porter la vision produit au sein de l'organisation. Vous aurez la charge de : • Définir et communiquer la vision du produit • Alimenter, partager et prioriser le backlog avec l'équipe • Définir la roadmap stratégique du produit • Défendre le produit auprès des instances de direction • Être le point de convergence de l'ensemble des contributeurs du produit Référence de l'offre : k170vt48pi
CDI

Offre d'emploi
Responsable DATA/BI - Martinique

INFOBAM
Publiée le
Data analysis
Data management
Gouvernance

Le Lamentin, Martinique
En tant que Responsable du Domaine DATA & BI, vous êtes le chef d'orchestre de la stratégie déployée au sein des filiales de GBH. Votre mission consiste à conduire des projets, chantiers de conception et de mise en œuvre en apportant votre expertise sur les outils décisionnels. Au quotidien, vous managez les équipes du domaine, en charge du développement, de la maintenance et de l’évolution des systèmes décisionnels pour les sociétés de GBH. Vos missions principales seront les suivantes : - Vous managez, animez et assurez le suivi opérationnel (coaching, formation, accompagnement métier, définition des objectifs) d’une équipe de 10 consultants (une équipe en cours de croissance) - Vous gérez et pilotez les relations avec les partenaires tiers de la DSI INFOBAM (ESN, consultants indépendants) ; - Vous êtes force de propositions pour l’implémentation d’une roadmap DATA/BI, en lien avec les besoins exprimés par les métiers ; - Vous animez périodiquement des réunions avec les métiers dans le but d’analyser et prioriser les demandes d’évolutions ; - Gestionnaire du « Build », vous assurez la bonne exécution des projets dans le respect des délais, du contenu, de la qualité et des objectifs budgétaires initialement convenus ; - Gestionnaire du « Run » de la plate-forme DATA/BI et de son maintien en conditions opérationnelles, incluant également la maintenance évolutive/corrective ; - Vous assurez la gouvernance des données, notamment au niveau de la définition des indicateurs opérationnels, garant de la maintenance, de l’évolution et de la pertinence des rapports ou des modèles utilisés ; - Vous pilotez l’ensemble de l’activité au travers de plan d’actions (tableaux de bord d’activité, indicateurs de performance) ; - Vous assurez une veille technologique afin de détecter les nouvelles possibilités techniques et fonctionnelles offertes par le marché.
CDI

Offre d'emploi
Développeur-se confirmé-e : data, IA et logiciel (H/F)

█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
Application web

38k-40k €
Pau, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Senior Data engineer IA (H/F)

CHARLI GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

2 ans
400-610 €
Île-de-France, France
Dans le cadre de son plan de transformation Data, le groupe poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing Pour répondre à cet enjeu, le groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI, ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour, dont une part majoritaire en temps réel. Description du poste : Notre environnement de travail combine rigueur, une ambiance décontractée au sein des équipes, et des méthodes Agiles (Scrum et Kanban). Votre mission principale, si vous l'acceptez, consistera à intervenir sur des architectures de Streaming Data et IA full AWS (notamment Lambda, Step Function, Kinesis Stream, S3, Batch, Firehose, EMR Serverless, DynamoDB, etc.), ainsi que sur des technologies comme Scala, Spark, SQL, Snowflake, GitLab CI/CD, DBT, Airflow, Terraform. Vous serez amené à : Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Rejoignez une équipe dynamique où innovation et expertise se rencontrent !

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5764 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous