Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 307 résultats.
Freelance
CDI

Offre d'emploi
Business Analyst Data (F/H)

Publiée le
Big Data
Business Analyst

12 mois
45k-55k €
400-500 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un projet stratégique au sein d’un grand acteur du secteur bancaire, nous recherchons un Business Analyst Data / BI . Vous interviendrez en proximité avec les équipes métier pour les accompagner dans la définition des besoins , la conception de solutions et le suivi de la mise en œuvre , dans un environnement riche et complexe. Vos principales activités: Dans le cadre de votre mission, vous serez amené(e) à : Analyser l’existant : évaluer les deux entrepôts de données à décommissionner en termes d’audience, d’utilisation et de fonctionnalités. Réaliser une gap analysis en comparant les fonctionnalités existantes et celles de l’outil cible, puis proposer des recommandations de mise en œuvre. Alimenter le backlog en rédigeant des user stories complètes et détaillées, incluant l’ensemble des règles fonctionnelles. Accompagner les équipes de développement , en précisant ou en faisant préciser les points nécessitant des clarifications. Définir les critères d’acceptation et tester les fonctionnalités développées pour garantir leur conformité. Piloter la phase de change management afin de faciliter l’adoption de la nouvelle solution par les métiers.
Freelance

Mission freelance
Data Engineering Manager

Publiée le
Data management
Management

12 mois
400-700 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
La Direction Data & AI Depuis 2022, les équipes DATA du Groupe sont regroupées sous la responsabilité unique d’un Chief Data Officer, et suivant 5 pôles (ou verticales) : Produit, Engineering, Gouvernance, CoE & ML/AI. Cela représente env’ 150 pers. organisées suivant le modèle « Spotify », soit en Chapter d’expertise ou en Tribu et Feature Team alignée sur un périmètre Métier. La Tribu DATA « Distribution & Hotel Services » (DHS) La tribu DATA « Distribution & Hotel Services » (DHS) fournit des produits DATA (exports, tableau de bord, dataset/tables, etc.) permettant de piloter la performance et d’améliorer les opérations de nombreuses équipes sur ces domaines d’activités :  La « Distribution » consiste à diffuser sur de multiples canaux (Direct/Indirect, B2B/B2C, etc.) nos ‘services’ (hotel, restaurant, spa), leurs disponibilités, le prix et d’éventuelles offres, puis d’assurer le processus de réservation jusqu’au paiement. Le système au cœur de ce domaine s’appelle un ‘CRS’, d’où nous collectons de nombreux référentiels, mais surtout l’ensemble des réservations, et ce à chaque étape de leur cycle de vie.  Le domaine « Hotel Services » consiste à fournir les outils de ‘gestion’ aux hôtels. Le système principal au sein d’un hôtel est ce qu’on appelle le ‘PMS’ (Property Management System). Il existe aussi des POS pour la restauration ou le spa, mais ils sont généralement connectés aux PMS afin de transmettre une partie de leurs données, notamment sur les revenues & taxes. Côté DATA, l’activité se répartie aujourd’hui entre 3 sous-équipes au sein de la Tribe. Sous la responsabilité du Tribe Tech Lead DATA ‘DHS’, le/la Tech Manager « PMS Data » aura donc la charge de… o encadrer 2 de ces 3 équipes (suivi individuel et avec les ESN, participation aux rituels, etc.) o créer un binôme fort avec son homologue ‘Produit’ (Product/Project Manager déjà présent) o piloter les chantiers de Delivery Produit, mais aussi d’améliorations (process, orga, outils) o animer les relations avec les parties prenantes (Métiers, équipes IT, Centre de Services Off-Shore) o informer et alerter les (deux) Tribes Leads DATA ‘DHS’ o participer aux activités et évènement transverses de la Tribe, du pôle ENGINEERING ou DATA. Au cours des prochains mois, ses responsabilités le/la mèneront à atteindre les objectifs suivants (non exhaustifs) : o Réduction des fichiers PMS manquants, et du délai de rattrapage (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Augmentation de la couverture (et qualité) des revenus hôtels déjà collectés, et réduction du délai d’activation (et de correction) du « mapping » financier ‘hôtel’ (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Déploiement de « connecteurs » pour accroitre le parc d’hôtels connectés, et répondre aux nouveaux usages métiers, tout en réduisant notre dépendance aux méthodes et acteurs ‘Legacy’. o Revue de la stratégie, de l’architecture et des capacités de la future « Hotel Data Platform » (HDP) o Co-Priorisation du backlog des équipes, planification puis suivi des roadmaps trimestrielles o Diffusion des bonnes pratiques à l’ensemble des membres de l’équipe (autonomie, efficacité) o Documentation à jour du patrimoine Data&Tech afin de faciliter l’intégration des nouveaux arrivants
Freelance
CDI

Offre d'emploi
Data Engineer Python/AWS

Publiée le
AWS Cloud
Flask
Python

3 ans
40k-50k €
400-550 €
Courbevoie, Île-de-France
Télétravail partiel
La Mission à réaliser se déclinera notamment à travers ces activités : • Collecte, ingestion, traitement, transformation et restitution des données • Optimisation des coûts et des performances. • Conception et développement d'outils d'aide à la décision • Maintenance évolutive et support technique / accompagnement des utilisateurs Langages & Frameworks Python v3 — Avancé (5 à 8 ans) Design Patterns / Architecture logicielle — Confirmé (3 à 5 ans) Cloud & Infrastructures AWS — Confirmé (3 à 5 ans) Data & Big Data Lakehouse Fundamentals & Database Systems — Confirmé (3 à 5 ans) Big Data Architecture & Technologies — Confirmé (3 à 5 ans) Data Management Systems — Confirmé (3 à 5 ans) Domaines fonctionnels Marchés des matières premières (Gaz, Électricité, etc.) — Junior (< 3 ans) Soft Skills / Compétences transverses Anglais — Avancé (5 à 8 ans) Esprit d’analyse et de synthèse — Avancé (5 à 8 ans) Proactivité / Prise d’initiative / Orientation solution — Junior (< 3 ans)
Freelance

Mission freelance
Product Owner Data

Publiée le
Product management

3 mois
400-650 €
Paris, France
Nous recherchons un un(e) Product Owner Data passionné(e) par les enjeux techniques et la gouvernance de la donnée, pour rejoindre un environnement data stimulant et exigeant à Paris , à partir de début 2026 . 🎯 Votre rôle : Piloter et animer une équipe de Data Engineers confirmés intervenant sur de nombreux flux et tables de données. Définir, prioriser et suivre les roadmaps produit data en étroite collaboration avec les équipes métiers et techniques. Garantir la qualité, la fiabilité et la performance des solutions livrées. Contribuer à la vision produit Data , en lien avec la stratégie globale de l’entreprise. Promouvoir les bonnes pratiques Agile (Scrum) au sein de l’équipe.
CDI

Offre d'emploi
Chef de projet Data - Analyse et Performance F/H

Publiée le

25k-55k €
Ivry-sur-Seine, Île-de-France
Télétravail partiel
Au quotidien, et sans que cette liste ne soit exhaustive, tu seras à amené à : 1. Reporting & Pilotage de la Performance Produire les reportings hebdomadaires et mensuels : *Du commerce : pilotage business, rapports aux clients externes, explication de performances produit... *Du e-commerce : analyse des ventes, détection des tendances, identification des opportunités... Préparer et animer les revues de performance (mensuelles, bilans d'opérations commerciales, revues stratégiques annuelles). Maintenir et améliorer les dashboards de suivi qualité du catalogue produits. Suivre le NPS Acheteurs, analyser les verbatims et coordonner les actions correctives avec les équipes IT, produit et commerciales. 2. Analyse & Études Ad Hoc Réaliser des deep dives data (commerce, marketing, parcours clients, campagnes) pour identifier des leviers de croissance et d'optimisation. Produire des analyses transverses à destination des directions métiers et du CODIR (business insights, market sizing...). 3. Gestion de Projets Data & BI Etre la référence de la BI métier via Tableau & Looker Développer et automatiser de nouveaux dashboards (équipes marketing, commerce, régie, producteurs). Intégrer de nouvelles sources de données (finance, CRM, catalogue, campagnes digitales). Piloter la mise en place d'outils de visualisation et reporting stratégiques. Contribuer à la création de supports de pilotage stratégique. 4. Support & Optimisation des Outils Assurer la parfaite cohérence avec les données du Contrôle de gestion (points hebdomadaires à mensuels + projets
Freelance

Mission freelance
Consultant PUR AZURE + BI

Publiée le
Azure
Azure Data Factory
DAX

3 mois
230-430 €
Courbevoie, Île-de-France
Télétravail partiel
* Concevoir et développer des entrepôts de données (Data Warehouse), Data Marts et Data Cubes * Développer des flux ETL réutilisables avec Azure Data Factory * Intégrer et transformer des données provenant de multiples sources vers Azure SQL DB / Data Lake * Mettre en oeuvre des mécanismes de chargement (complet, delta, historique) * Optimiser la performance des requêtes (SQL, DAX, MDX) et assurer la qualité des données * Mettre en place des outils analytiques et alimenter les dashboards Power BI * Développer des rapports Power BI * Gérer la sécurité des données, notamment le Row Level Security à tous les niveaux de la chaîne * Participer à la mise en place de pipelines CI/CD automatisés via Azure DevOps / GitLab
Freelance

Mission freelance
Product Owner Technique – Data Platform

Publiée le
Agile Scrum
AWS Cloud
AWS Glue

12 mois
400-510 €
Paris, France
Télétravail partiel
Mission principale : Nous recherchons un Product Owner (PO) technique pour accompagner le développement et le RUN de notre Data Platform . Vous serez en charge de qualifier les besoins, de participer aux rituels agiles et d’assurer la liaison entre les équipes Build et le RUN de la plateforme, en mode Agile. Responsabilités : Qualifier les besoins techniques et fonctionnels des différentes équipes Data. Participer aux rituels Agile : daily, sprint planning, backlog refinement, PI planning (sur 3 mois). Transformer les besoins identifiés en user stories et tickets Jira exploitables par les squads. Accompagner la construction et l’évolution de la Data Platform (environnements GCP, flux de données, pipelines). Assurer le suivi du RUN de la plateforme et identifier les priorités techniques et fonctionnelles. Travailler en coordination avec 4 à 5 squads organisées en trains pour les PI planning et sprints. Être un interlocuteur technique capable de dialoguer avec les équipes Dev, Data et Ops. Profil recherché : Expérience confirmée en Product Ownership , idéalement dans un contexte technique ou data. Compréhension des environnements cloud (GCP) et des flux de données. Capacité à transformer des besoins complexes en user stories / tickets techniques . Connaissance des méthodes Agile / SAFe et pratique des rituels (sprint planning, PI planning, daily, etc.). Esprit technique : ne pas avoir peur de discuter architecture, flux de données, pipeline, outils de production. Bon relationnel et capacité à collaborer avec plusieurs équipes simultanément. Une connaissance de la data (ETL, ingestion, stockage, pipelines) est un plus. Soft Skills : Organisation et rigueur dans le suivi des priorités. Capacité à synthétiser les besoins et à communiquer clairement. Curiosité technique et ouverture à l’innovation. Force de proposition pour améliorer les process et la plateforme.
Freelance

Mission freelance
Ingénieur Production Data

Publiée le
Agile Scrum
AWS Cloud
Data analysis

12 mois
400-550 €
Paris, France
Le Data Office a pour mission de consolider, manager et valoriser le patrimoine de données, qui est un capital stratégique pour mon client, via le développement de produits et services data transverses à l’entreprise et au service du business. Au sein du Data Office, la mission de l’équipe Core Data est de développer et maintenir une plateforme centralisée, sécurisée, fiable et performante au service des usages data de l’ensemble des directions métier de mon client. Elle est notamment responsable d’un datalake opérationnel sur le cloud AWS et d’un patrimoine applicatif de jobs de transformation et production de données (Scala Spark). Elle assure également la maintenance de la plateforme Dataiku. Dans le cadre de son activité, mon client recherche un(e) Ingénieur de Production Data, qui sera amené(e) à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers.
Freelance
CDI

Offre d'emploi
Data Engineer – GCP confirmé·e

Publiée le
Google Cloud Platform (GCP)
Python
SQL

3 ans
Rouen, Normandie
Télétravail partiel
Vous aimez relever des défis techniques ambitieux et contribuer à la mise en place d’architectures data performantes et innovantes ? Vous souhaitez évoluer au cœur d’un environnement cloud moderne et collaboratif ? Cette opportunité est faite pour vous ! Nous recherchons un·e Data Engineer – GCP confirmé·e pour accompagner la construction et le déploiement de solutions data pour notre client du secteur de l’assurance. Intégré·e à la DataFabric, vous rejoindrez une équipe agile composée de 5 à 7 Data Engineers, en lien direct avec le Tech Lead. Vous participerez activement au build et au run des traitements livrés en production sur la plateforme Google Cloud Platform (GCP). Vos principales responsabilités : Analyser, concevoir et modéliser les solutions data adaptées aux besoins métiers Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données Rédiger les documents techniques associés (spécifications, cahier de recette, documentation d’exploitation) Réaliser les recettes techniques et assurer la qualité des livrables grâce à des tests de non-régression Participer activement à la maintenance et à l’amélioration continue des traitements data en production Environnement technique : GCP : BigQuery, Cloud Storage, Cloud Composer, Airflow, GKE Langages & outils : SQL, Python CI/CD : maîtrise des outils d’intégration et de déploiement continu Infrastructure as Code : Terraform
Freelance
CDI
CDD

Offre d'emploi
BUSINESS ANALYST SQL- Assurance Vie

Publiée le
Big Data
PL/SQL

3 ans
Paris, France
Télétravail partiel
Objectif : constitution et contrôle des déclaratifs réglementaires (FICOVIE en priorité, puis FATCA, IER, ECKERT, AGIRA/RNIPP). Missions principales Analyser les besoins & rédiger spécifications fonctionnelles détaillées. Concevoir des solutions, modéliser des traitements, définir des jeux de données. Élaborer stratégie & plan de tests, exécuter et suivre la recette. Support aux Data Engineers (Build & MCO). Contrôle qualité des déclaratifs avant dépôts (notamment FICOVIE). Suivi de production et résolution des anomalies. Pilotage : avancement, chiffrages, communication, respect des normes. Compétences clés Obligatoires : Assurance Vie / Prévoyance (5–8 ans exp.). Déclaratifs réglementaires (FICOVIE impératif). SQL confirmé. Data (qualité, mapping, transformations). Souhaitées : Connaissances Big Data. Pratiques Agiles / SAFe, Jira. Pilotage / lead fonctionnel. Anglais lu/écrit.
Freelance

Mission freelance
Architecte Data (MLOps)

Publiée le
CI/CD
Python
Terraform

6 mois
740 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte/ Mission : La cellule Marché Data Science XXXXXXX recherche un Architecte Data. Dans un contexte Agile, apporter un appui opérationnel et stratégique à la discipline IA/MLOPS de l’UPN pour : Identifier et évaluer des opportunités IA/ML. Réaliser des POC et industrialiser les solutions retenues. Intégrer les développements IA/ML dans les produits numériques. Standardiser les pratiques MLOPS. Vulgariser et acculturer les équipes produit aux enjeux IA. Attendus/ Livrables clés : Rapport d’analyse d’opportunité IA/ML Documentation technico-économique + code POC Pages Confluence sur standards MLOPS Support de présentation / acculturation IA Rapport d’audit des pratiques IA/MLOPS
Freelance
CDI

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Publiée le
Apache Spark
Hadoop
Python

3 ans
38k-43k €
300-400 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Freelance

Mission freelance
Data Engineer Databricks (F/H)

Publiée le
Databricks

1 an
500-550 €
Saint-Denis, Île-de-France
Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks. Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.). Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows). Optimiser les performances des jobs Spark et la consommation des clusters. Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse). Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage). Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data. Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).
Freelance

Mission freelance
Data Engineer AI Integration

Publiée le
IA Générative
Python
Pytorch

10 mois
460-590 €
Île-de-France, France
Télétravail partiel
Le Data Engineer aura pour mission principale d’interagir avec les parties prenantes pour capturer les besoins en données, extraire les data dumps, configurer des Vector Databases (VDBs) et développer/configurer une compétence RAG (Retrieval-Augmented Generation) afin d’améliorer la performance des solutions d’IA générative. Il sera en charge de tester les data pipelines pour garantir des processus efficaces en lien avec les besoins métiers et IA. Ses principales responsabilités incluent : Être le premier point de contact pour les utilisateurs internes concernant les besoins en données des applications d’IA générative Collaborer étroitement avec les Product Owners, développeurs et ingénieurs IA pour recueillir et documenter les besoins Capturer et documenter les besoins et lacunes de données et proposer des stratégies correctives Valider la qualité des données extraites (complétude, exactitude, pertinence) Configurer et optimiser l’utilisation de bases de données vectorielles pour l’accès rapide aux données Tester et ajuster les compétences RAG pour garantir la pertinence contextuelle des informations générées Effectuer des tests complets sur les pipelines de données, participer à l’évaluation de la performance des modèles IA
CDI
Freelance

Offre d'emploi
Data ENG GCP CAEN

Publiée le
Git
Google Cloud Platform (GCP)
Jenkins

12 mois
40k-45k €
400-550 €
Caen, Normandie
Télétravail partiel
Dans le cadre du développement de nos activités Data & Cloud auprès d’un grand compte , nous recherchons un Data Engineer expérimenté sur l’écosystème GCP pour rejoindre une équipe projet dynamique basée à Caen( de préférence un profil habitant Caen et ses alentours (3jours sur site /2jours TT .) Vous interviendrez au cœur d’un environnement technologique innovant, sur la construction, l’industrialisation et l’optimisation des pipelines de données dans un contexte Cloud en pleine transformation.
CDI

Offre d'emploi
MOA / BA - Mise en place d'un Datalake Hadoop

Publiée le
AMOA
Big Data
Business Analysis

55k-65k €
Île-de-France, France
Télétravail partiel
Pour mon client bancaire, je recherche MOA / BA - Mise en place d'un Datalake Hadoop. Vous interviendrez sur les sujets liés aux métiers du Financement Structuré et du Risk Management. Recueil des besoins et animation d’ateliers avec les équipes métiers (Financing & Risk) Rédaction de spécifications fonctionnelles claires et structurées Contribution à la modélisation des données et au design fonctionnel Préparation, exécution et suivi des tests utilisateurs Présentation des livrables aux équipes métiers et rédaction de synthèses Accompagnement des utilisateurs dans la conduite du changement Suivi de la qualité de production et amélioration continue
1307 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous