Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 670 résultats.
CDI

Offre d'emploi
Lead Data Scientist

█ █ █ █ █ █ █
Publiée le
Apache Airflow
Ocaml
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Product Owner Data Act / RGPD

Ositel France
Publiée le
Audit
Confluence
JIRA

6 mois
Boulogne-Billancourt, Île-de-France
En tant que Product Owner Data, vous serez responsable de définir et piloter la roadmap produit, de construire et prioriser le backlog pour automatiser le traitement des exercices de droits, d'animer les rituels agiles et de traduire les exigences réglementaires en fonctionnalités opérationnelles. Les compétences recherchées sont les suivantes : - Gestion de projets digitaux en méthodologie Agile (certification SAFe est un plus). - Expertise dans la gestion du changement liée aux réglementations data (RGPD). - Maîtrise des règles d’audit. - Maîtrise des outils JIRA et Confluence. - Maîtrise de l'anglais (oral et écrit).
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake

KLETA
Publiée le
DBT
Snowflake

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Snowflake pour concevoir, optimiser et industrialiser des plateformes analytiques cloud modernes. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (migration vers Snowflake, optimisation des modèles de données, amélioration des pipelines ELT) et guiderez leur mise en œuvre avec Snowflake, dbt et les outils d’orchestration associés. Vous serez responsable de la structuration des modèles de données, de l’optimisation des performances des requêtes et de la mise en place de mécanismes de gouvernance et de traçabilité. Vous travaillerez main dans la main avec les équipes Cloud, Data et DevOps pour intégrer les traitements dans des pipelines CI/CD fiables et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering moderne et d’usage avancé de Snowflake. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Responsable / Chef de Projet Gouvernance Data

ALLEGIS GROUP
Publiée le
Data governance

3 ans
400-570 €
Niort, Nouvelle-Aquitaine
Responsabilités 1. Gouvernance & Stratégie Construire, formaliser et déployer le cadre de gouvernance Data : normes, qualité, sécurité, rôles, catalogues, bonnes pratiques. Définir et animer les trajectoires Data (organisationnelles, techniques, qualité). Contribuer à la structuration des besoins Data pour l’ensemble des projets du périmètre (≈ 16 collaborateurs / 30 projets). Assurer la cohérence globale des initiatives Data en lien avec les équipes métiers et techniques. 2. Pilotage Data Suivre l’avancement des actions Data, dont les jalons clés (ex. J+15). Instaurer un pilotage robuste : reporting régulier, gestion des risques, consolidation des indicateurs. Participer au développement de la culture Data au sein de l’organisation. 3. Gestion de Projet Recueillir, structurer et prioriser les demandes Data . Coordonner les parties prenantes internes et externes (prestataires, métiers, IT). Garantir la qualité , la cohérence et la complétude des livrables Data (modèles, règles, dictionnaires, contrôles…). 4. Management Fonctionnel Animer la communauté Data et participer à la structuration des rôles (Data Owners, Data Stewards…). Superviser le périmètre opérationnel (~16 personnes). Intervenir à la fois sur le stratégique (vision, trajectoires) et l’ opérationnel (suivi, arbitrages, priorisation).
CDI

Offre d'emploi
Data Analyst - Assurances H/F

VIVERIS
Publiée le

45k-55k €
Crédit Agricole du Languedoc, Occitanie
Contexte de la mission : Viveris accompagne ses clients dans la conception, la maintenance et l'optimisation de leurs infrastructures informatiques. Dans ce cadre, nous recherchons un Data Analyst pour accompagner notre client dans les assurances, dans la transformation des données de télémétrie en indicateurs décisionnels à forte valeur ajoutée. Vous interviendrez en tant que référent analytique sur un périmètre centré sur les environnements Windows 11, avec pour objectif de mesurer, analyser et améliorer l'expérience utilisateur à grande échelle. Responsabilités : Concevoir des tableaux de bord adaptés aux différents niveaux de pilotage (direction, support, exploitation) ; Définir et structurer des KPIs orientés expérience utilisateur (DEX Score, performance, productivité) ; Mettre en place des indicateurs de suivi de la qualité de service et du ROI des actions menées ; Identifier les signaux faibles et anomalies impactant l'expérience utilisateur; Réaliser des analyses de causes racines en croisant données techniques et incidents ; Définir et configurer des mécanismes d'alerte proactifs ;Recueillir les besoins métiers et les traduire en indicateurs mesurables ; Accompagner les équipes support et exploitation dans l'usage des dashboards ; Contribuer à l'amélioration continue des pratiques d'observabilité.
CDI
Freelance

Offre d'emploi
Data Scientist (parlant Japonais ou Coréen)

OBJECTWARE
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
RAG

3 ans
40k-86k €
380-610 €
Île-de-France, France
Mission Concevoir et optimiser des systèmes de recherche intelligente basés sur l’IA générative (RAG) pour un SaaS métier, afin d’améliorer l’accès à l’information et la fiabilité des réponses. 🚀 Responsabilités Développer des pipelines RAG (embeddings, vector search, ranking) Optimiser la pertinence des résultats (precision, recall, MRR) Réduire les hallucinations des LLM Concevoir des architectures multi-agents via Semantic Kernel Industrialiser les modèles (API, intégration backend) 🧰 Stack IA : LLM, NLP, RAG, embeddings Cloud : Azure OpenAI Service Data : Azure Cosmos DB Backend : .NET 8, SignalR Front : React 5+ ans en Data Science / ML Expertise NLP / recherche sémantique Expérience en IA générative (RAG, LLM)
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Freelance

Mission freelance
Data Engineer / Architecte Data (GCP)

ESENCA
Publiée le
Architecture
Big Data
BigQuery

1 an
Lille, Hauts-de-France
Contexte Dans le cadre d’un projet à forte composante data, la mission consiste à développer et mettre en œuvre une architecture applicative avec un enjeu majeur de fiabilisation des modèles de calcul . Vous interviendrez au sein d’une équipe existante pour consolider, améliorer et industrialiser les solutions déjà en place , tout en contribuant à la montée en compétence collective. Missions Concevoir et faire évoluer l’ architecture applicative et data Développer et industrialiser les traitements et jobs data Réaliser les tests d’intégration et garantir la qualité des livrables Fiabiliser les modèles de calcul et les résultats produits Valider et assurer la robustesse des interfaces entre systèmes Rédiger et maintenir la documentation d’architecture Garantir la cohérence du système d’information : assurer la bonne communication entre les applications respecter les standards et l’architecture globale Participer à l’amélioration continue des solutions existantes Partager les connaissances et accompagner les équipes Livrables attendus Dossier d’architecture (documentation, validation de l’existant) Développements et création de jobs data Validation des interfaces et flux Documentation technique à jour Environnement technique Google Cloud Platform : Compute, BigQuery, Big Data Python GitHub Terraform Kafka Dataflow (souhaité) Soft skills Esprit analytique et rigoureux Sens du service et orientation client Capacité d’adaptation à des environnements évolutifs Esprit d’équipe et partage de connaissances Autonomie et proactivité Langues Français : professionnel (impératif) Anglais : lu et écrit (secondaire)
Freelance

Mission freelance
Consultant MS BI Power BI

Clémence Consulting
Publiée le
Azure Data Factory
DAX
Microsoft Power BI

3 mois
Paris, France
Pour créer de A à Z (modélisation, alimentation... jusqu'aux rapports) des reporting pour une nouvelle activité ; la mission comprendra les tâches suivantes : · Concevoir des modèles de données adaptés. · Créer et optimiser des bases de données et entrepôts de données (SQL Server principalement). · Prendre en charge les développements de rapports Power BI. · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production.
CDI
Freelance

Offre d'emploi
Data Engineer (3+ ans d'exp)

WINSIDE Technology
Publiée le
API
DBT
Google Cloud Platform (GCP)

1 an
43k-57k €
360-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer pour une grande entreprise française sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans d'expérience professionnelle à minima en tant que Data Engineer. tu as 2 ans d'expérience professionnelle à minima en dbt, Snowflake ET Semarchy. Missions : Concevoir et développer des pipelines pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Les petits plus du candidat idéale : Connaissances IPAAS Familiarité avec les outils de workflow (Airflow, PubSub). Connaissance développement IA (Python, RAG...) Connaissance GCP (Cloud Provider, nous n'avons pas de Big Query) Démarrage : rapide. TT : 1 jour par semaine. Durée : longue. Localisation : métropole lilloise. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Freelance
CDI

Offre d'emploi
Gestion de Projets Data

VISIAN
Publiée le
Gestion de projet

1 an
Bruxelles, Bruxelles-Capitale, Belgique
Descriptif du poste Dans le cadre de l'intégration des activités au sein d'une grande banque de gestion d'actifs, nous recherchons une expertise en gestion de projets data (au sein d'un asset manager), associée à une bonne connaissance des données de référence (instruments financiers et benchmarks). Le consultant retenu jouera un rôle clé dans la transition des données et des processus vers la plateforme data de l'entreprise – Aladdin. Cela inclut notamment : Accompagner la migration et l'intégration des référentiels Security Master et des données de benchmarks dans Aladdin. Collaborer avec les équipes internes afin de définir et valider les besoins en données, les mappings et les standards de gouvernance. Garantir l'intégrité et la cohérence des données migrées. Participer aux phases de tests, de réconciliation et de validation des processus.
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
Freelance

Mission freelance
Lead Data Architecte Sénior

Nicholson SAS
Publiée le
CRM
Google Cloud Platform (GCP)
SQL

9 mois
400 €
Massy, Île-de-France
Lead Data Architect Senior – Supply Chain Analytics Lieu : Massy (91) – Hybride (2 jours sur site / semaine) Durée : ASAP jusqu’au 31/12/2026 TJM : 400 € 🎯 Le Rôle : Pivot Stratégique & Technique Au cœur de l’ Analytics Factory , véritable moteur de la transformation numérique du groupe, vous rejoignez l’équipe Data Translation Supply Chain . Votre mission est cruciale : être le trait d’union entre les enjeux métier de la Supply Chain (prévisions de ventes, optimisation des flux, planification entrepôts) et l'excellence technique des équipes Data (Scientists, Engineers, Gouvernance). Vous ne vous contentez pas d'analyser ; vous guidez les décisions stratégiques du nouveau Directeur de la Supply Chain. Vos principales responsabilités : Data Translation : Traduire les problématiques business complexes en solutions analytiques concrètes. Analyse & Modélisation : Piloter des analyses approfondies nécessitant une forte agilité et un esprit critique pour challenger les demandes métier. Restitution de haut vol : Assurer la communication et la vulgarisation des résultats auprès du Top Management. Amélioration Continue : Évaluer la qualité du code, optimiser les solutions existantes et garantir le respect des standards élevés du groupe. 🛠 Environnement Technique & Expertises Nous recherchons un profil capable de manipuler de larges volumétries de données avec une aisance absolue. Maîtrise incontournable : SQL (BigQuery), outils de Datavisualisation (Tableau, Google Looker Studio). Les "Plus" : Maîtrise de Python et GitLab . Data Science : Solide compréhension des principes de modélisation pour interagir efficacement avec les Data Scientists. Infrastructure : Expertise en Architecture de données et environnement Google Cloud Platform (GCP) . 🎓 Profil recherché Formation : Diplôme d’Ingénieur ou équivalent Bac+5 de haut niveau en Maths/Stats). Expérience : +7 ans d’expérience en Data, dont au moins 2 ans dans le secteur du Retail (ou conseil spécialisé) et 2 ans spécifiquement sur des sujets Supply Chain . Soft Skills : * Posture "Top Management" : excellente communication orale et écrite. Capacité de vulgarisation de sujets complexes. Rigueur, autonomie et proactivité. 💻 Cadre de travail & Moyens Équipement : Laptop professionnel haut de gamme (i7/Ryzen 7, 16 Go RAM, SSD) fourni. IA Générative : Accès aux solutions d'IA sécurisées internes du groupe (usage d'IA externes proscrit pour garantir la sécurité des données). Culture : Intégration dans une équipe agile, mature et experte, favorisant l'apprentissage continu.
Freelance

Mission freelance
Data Engineer

Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API

1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
CDI
Freelance

Offre d'emploi
Data Pipeline Analyst - NL / FR

AEROW
Publiée le
Data analysis
Data management
Data visualisation

2 ans
Bruxelles, Bruxelles-Capitale, Belgique
Attention, le poste est basé à Bruxelles, avec une présence de 2 jours minimum sur site. La mission combine analyse de données , modélisation sémantique (Linked Data) , compréhension des data pipelines et pilotage de petits projets data , en lien étroit avec les équipes métier , Data & Digital et ICT . Objectif : garantir la cohérence, l’interopérabilité et la réutilisabilité des données et livrer des analyses et dashboards exploitables. Responsabilités clés Cadrage & pilotage : recueil/analyse des besoins, définition du scope, objectifs, livrables et planning pour projets data de petite à moyenne envergure ; suivi d’avancement, coordination fonctionnelle et communication vers les parties prenantes ; respect du scope, délais et qualité. Analyse de données & pipelines : analyse des sources/flux/transformations et modèles ; contribution à la définition/optimisation des data pipelines ; identification d’axes d’amélioration (qualité, fiabilité, performance, réutilisabilité). Modélisation sémantique : conception/évolution de modèles RDF/OWL (Linked Data) pour l’interopérabilité. Livrables analytiques : réalisation d’analyses pour cas d’usage opérationnels ; développement de rapports, KPI et tableaux de bord ; validation avec les utilisateurs. Coordination transverse : interface fonctionnelle entre Business, Data & Digital et ICT ; animation d’ateliers et facilitation de la décision ; alignement avec la roadmap Data & Digital et les standards. Documentation & transfert : documentation des analyses, choix fonctionnels et modèles via Sparx Enterprise Architect ; formalisation des bonnes pratiques ; transfert de connaissances vers les équipes internes
CDI

Offre d'emploi
Responsable Data - Assurances H/F

VIVERIS
Publiée le

55k-60k €
Crédit Agricole du Languedoc, Occitanie
Contexte de la mission : Viveris accompagne ses clients dans la conception et la maintenance des solutions décisionnelles. Dans ce cadre, nous recherchons un Responsable Data pour accompagner notre client dans le domaine des assurances. Il pilote son service Data en charge de garantir la qualité, la sécurité et la valorisation des données. Vous êtes intégré dans un Direction des Systèmes d'Informations (DSI) et directement rattaché au Directeur des Systèmes d'Information. Responsabilités : - Structurer, organiser et piloter le service Data pour répondre aux enjeux de l'organisation ; - Définir et suivre les indicateurs de performance et de qualité de service (SLA) afin de garantir un pilotage fiable et transparent ; - Suivre les budgets liés au décisionnel et optimiser les coûts associés (licences, outils, prestations) tout en recherchant un équilibre pertinent entre qualité et maîtrise des dépenses ; - Définir et déployer la stratégie de gouvernance des données, en veillant à la qualité, l'intégrité, la conformité et la sécurité des informations gérées ; - Piloter la gestion des référentiels, des règles de gestion, du dictionnaire de données et des habilitations pour assurer une utilisation cohérente et maîtrisée de la donnée ; - Définir et piloter la feuille de route de modernisation du Système d'Information Décisionnel (SID), intégrant les évolutions technologiques, les nouveaux outils et les bonnes pratiques méthodologiques ;
1670 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous