Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 133 résultats.
Offre premium
Freelance
CDI
CDD

Offre d'emploi
QA Data confirmé (Databricks / Azure)

VADEMI
Publiée le
Azure
Databricks

3 ans
Châtillon, Île-de-France
Testeur confirmé avec compétences Data Analyste Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks - Confirmé - Important Environnement azure microsoft - Confirmé - Important Description détaillée Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data. En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data . Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : - Participer aux ateliers/rituels agiles - Réaliser la stratégie de test - Identifier et réceptionner les environnements de test - Analyser et évaluer les cas d'usage/User Story - Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données - Exécuter les cas de tests - Créer et suivre les défauts avec les différentes parties prenantes - Maintien du référentiel de test - Réaliser le PV de recette - Présentation des sujets en CAB pour passage en production - Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité.
Offre premium
Freelance

Mission freelance
Data Engineer Milan ITALIE

APTEA
Publiée le
Azure
Python
Snowflake

12 mois
430-530 €
Milan, Lombardie, Italie
Notre client final, leader mondial des services aux entreprises, cherche à monter une équipe internationale pour sa Data Factory, avec un premier recrutement basé à Milan en Italie. Le consultant devra parlé anglais et italien couramment. L'objectif est de travailler en équipe avec des consultants basés au United Kingdom, en Italie et à Paris. Nous cherchons un data engineer, expérimenté, ayant déjà mis les mains dans le cambouis, autonome et communiquant. Il s'agit d'une mission longue. Le consultant devra vivre sur Milan.
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Python / Azure Sénior

VISIAN
Publiée le
Azure Data Factory
Azure DevOps
Python

1 an
Paris, France
Contexte La Direction des Systèmes d’Information recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l’exploitation des données. Missions Mener les projets d’intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d’optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger (Anglais) pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d’optimiser les architectures Contribuer à l’amélioration de la gouvernance sur la protection et la confidentialité des données Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l’entreprise
Freelance
CDI

Offre d'emploi
🔎 Tech Lead Data (Snowflake / dbt) & Power BI

OMICRONE
Publiée le
Azure Data Factory
CI/CD
DBT

2 ans
40k-45k €
400-500 €
Île-de-France, France
🔎 Tech Lead Data (Snowflake / dbt) & Power BI Dans le cadre du renforcement d’une équipe Data & Analytics, nous recherchons un Tech Lead Data & BI pour piloter la delivery technique de produits data et solutions de visualisation, dans un environnement moderne et industrialisé. 🎯 Vos missions • Piloter la chaîne data de bout en bout : Snowflake → dbt → modèle sémantique → Power BI • Définir et faire appliquer les standards techniques (modélisation, qualité, performance, gouvernance) • Encadrer la revue de code , les pratiques CI/CD et l’industrialisation des pipelines • Concevoir et maintenir les modèles data et datamarts sous Snowflake • Développer et structurer les projets dbt (modèles, tests, documentation) • Mettre en place des pipelines robustes (orchestration, contrôles qualité, runbooks) • Définir les bonnes pratiques Power BI (modèle sémantique, performance, RLS, templates) • Participer au run : gestion des incidents, post-mortems, amélioration continue • Accompagner et faire monter en compétences les équipes (France & offshore) 🧩 Profil recherché • Expérience confirmée en tant que Tech Lead Data / BI • Excellente maîtrise de Snowflake et du data modeling • Expertise avancée sur dbt (modélisation, tests, documentation) • Solide expérience sur Power BI (modélisation, performance, gouvernance, RLS) • Bonne connaissance des environnements Azure Data Factory • Capacité à définir des standards et à structurer une équipe • Excellentes compétences en communication 🛠 Compétences clés • Snowflake (expert) • Data Modeling / BI Modeling (expert) • dbt (avancé) • Power BI (confirmé) • Azure Data Factory • CI/CD, data quality, gouvernance data
CDI
Freelance

Offre d'emploi
Data Engineer, AWS (H-F)

K-Lagan
Publiée le
Azure
Big Data
Databricks

1 an
42k-50k €
400-550 €
Nantes, Pays de la Loire
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique, innovation et accompagnement personnalisé. Aujourd’hui, nous recherchons un·e Data Engineer (F/H) pour rejoindre l’un de nos clients sur un projet stratégique autour de la data temps réel et des architectures Cloud , basé à Nantes . 🎯 Contexte Vous interviendrez sur le développement et l’optimisation de pipelines de données temps réel, dans un environnement moderne orienté Cloud et industrialisation. L’objectif : concevoir des solutions robustes, automatisées et performantes pour garantir la fiabilité et la scalabilité des flux de données. 📍 Les modalités Localisation : Nantes Contrat : CDI ou Freelance Démarrage : ASAP Conditions et rémunération ouvertes à négociation selon profil et expertise
Freelance

Mission freelance
ARCHITECTE DATA / POWER BI & AZURE

PROPULSE IT
Publiée le
Azure
BI

24 mois
275-550 €
Massy, Île-de-France
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
CDI
Freelance

Offre d'emploi
Data Engineer, GCP (H-F)

K-Lagan
Publiée le
Azure
Big Data
Databricks

1 an
42k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets à forte valeur ajoutée, en alliant expertise technique, innovation et accompagnement personnalisé. Aujourd’hui, nous recherchons un·e Data Engineer GCP (F/H) pour rejoindre l’un de nos clients du secteur assurance , basé à Niort, Nouvelle-Aquitiane. 🎯 Contexte Vous intégrerez une équipe Data en charge de la gestion et de l’optimisation des environnements Cloud GCP. Votre rôle sera central dans l’administration de la plateforme Data, la gestion des droits d’accès, l’optimisation des traitements de données et l’industrialisation des flux au sein de l’écosystème BigQuery. 🚀 Vos missions Gérer et administrer l’environnement BigQuery Assurer la gestion de l’infrastructure Google Cloud Platform (GCP) Administrer les droits et accès pour les équipes Data Intervenir sur l’automatisation via Terraform (IaC) Développer et maintenir les flux Data avec DBT Participer à l’amélioration continue des performances et de la fiabilité de la plateforme Contribuer aux bonnes pratiques de développement et d’industrialisation
Freelance

Mission freelance
Architecte Data & IA

VISIAN
Publiée le
Azure
Databricks

1 an
400-550 €
Île-de-France, France
Contexte de la mission Dans le cadre de la modernisation de sa plateforme Data & Intelligence Artificielle, un grand groupe du secteur assurance / services financiers recherche un Architecte Data & IA Senior afin d’accompagner la transformation de son socle technologique vers une plateforme unifiée, gouvernée et prête pour les usages IA avancés. L’objectif est de renforcer les fondations techniques permettant : L’industrialisation rapide des cas d’usage IA / Machine Learning La cohérence des environnements MLOps / LLMOps La montée en maturité des équipes DataOps, Delivery et Engineering L’intégration future de solutions Agentic AI Missions principalesArchitecture & Gouvernance Technique Définir les architectures cibles Data & IA pour les usages analytiques, ML et GenAI Faire évoluer l’offre de services de la plateforme Data & IA Superviser la mise en place d’un catalogue de données unifié (gouvernance, sécurité, lineage, partage, FinOps) Structurer le cadre d’architecture : sécurité, traçabilité, observabilité, conformité Garantir la cohérence technique entre les environnements Data, IA et systèmes métiers Accompagnement des équipes Encadrer les équipes DataOps / MLOps sur les bonnes pratiques CI/CD, automatisation et monitoring Accompagner la montée en compétence sur les technologies cloud & data platform Collaborer avec les équipes Delivery pour fiabiliser les pipelines de production Participer au transfert de connaissances et à la documentation des standards Innovation & Modernisation Préparer la plateforme à l’exposition de Data Products fédérés Définir une approche AI by Design intégrant conformité et gouvernance Concevoir les architectures d’intégration de LLM internes ou hybrides Piloter des initiatives autour de : IA Observability AI FinOps / Cost Control Temps réel / streaming data Automatisation intelligente
Offre premium
Freelance

Mission freelance
Développeur Fullstack Java / Data

CONSULT IT
Publiée le
Angular
Apache Kafka
Apache Spark

3 ans
400-500 €
Montrouge, Île-de-France
Développement Java back-end Conception de modules de collecte (API calls, fichiers, BDD), intégration OAuth2 / SSO, architecture microservices, API REST/SOAP. Traitement de données Spark Mise en place et optimisation de pipelines Spark 3 (collecte → transformation → distribution) sur l'ensemble de la chaîne de traitement. Gestion Kubernetes Déploiement, gestion et optimisation des applications sur cluster Kubernetes, bonnes pratiques DevOps, sécurité des applications. Tests automatisés Cucumber Écriture et maintien de tests automatisés (BDD), garantie de la qualité du code, approche TDD sur les API. Visualisation PowerBI Conception et développement de dashboards et rapports PowerBI en collaboration directe avec les équipes métier. Interface infrastructure & delivery Collaboration avec le partenaire infra du client, commande de ressources, suivi du delivery et post-production, force de proposition.
Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

PROPULSE IT
Publiée le
Azure
BI
Cloud

24 mois
200-400 €
Paris, France
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Offre premium
Freelance
CDI

Offre d'emploi
Data Mesh Platform Manager

EXteam
Publiée le
Data Mesh

3 ans
Levallois-Perret, Île-de-France
Objectifs et livrables Key Responsibilities Platform Build and Delivery (Core Responsibility) Responsibilities Design and implement the Self-Service Data platform architecture Define platform capabilities (data products, pipelines, governance, observability, self-service access) Define and enforce technical standards and architecture patterns Ensure scalability, performance, and security Make hands-on technical decisions and solution validation Expected Deliverables Architecture decision records (ADR) Reference architecture patterns and reusable templates Platform capability roadmap Platform technical standards Cloud Architecture and Infrastructure Responsibilities Drive the Design and operate cloud and hybrid architecture with the Group Data Architect Coordindate with the Group Data Delivery Team the implementation on Amazon Web Services and Microsoft Azure Lead the Integration of on-premise systems Lead the Implemention of automation and infrastructure as code Ensure security and compliance requirements Expected Deliverables Cloud architecture blueprint (with the help of the Group Data Architect) Security and access management framework Delivery and Execution Management Responsibilities Own platform delivery lifecycle Define backlog and prioritization process Manage releases and production deployment Track performance and reliability Manage risks and technical issues Expected Deliverables Platform roadmap (short / mid / long term) Product backlog and prioritization framework Release plan and version management process Delivery tracking dashboards Platform SLA / reliability metrics Deployment and Domain Adoption Responsibilities Deploy platform across business domains Enable domain teams to build data products Deploy Data Mesh operating model Support onboarding and adoption Resolve operational adoption challenges Expected Deliverables Domain onboarding framework and process Data product lifecycle guidelines Domain enablement playbooks Adoption and usage metrics Training materials and onboarding documentation Product Management (Usage-Driven) & Continuous improvement Responsibilities Capture user needs and platform requirements Define product vision and roadmap Measure usage and value delivery Improve developer and user experience Expected Deliverables Product vision and value proposition Platform KPIs and adoption metrics User feedback loops and improvement backlog Platform enhancement roadmap Documentation, Standardization & Governance Responsibilities Document platform capabilities and processes Ensure compliance with group Federated Computational Data Governance Expected Deliverables Platform documentation repository Technical standards and implementation guidelines Governance and compliance framework Best practice playbooks Operational Communication and Executive Reporting Responsibilities Communicate platform progress and impact Provide executive-level reporting Manage stakeholder alignment Expected Deliverables Executive Project Dashboard Platform performance dashboards Steering committee presentations Decisions, Risks and issues tracking Internal Promotion and Evangelization Responsibilities Promote platform value across the organization Support internal adoption initiatives Build platform community Expected Deliverables Internal platform communication materials Adoption strategy and rollout plan Platform demos and use case portfolio Required Experience Minimum 15 years of experience in data platform, data engineering, or architecture Proven experience building and delivering production-grade data platforms Strong experience in hands-on technical delivery and implementation Experience in platform engineering or advanced data engineering Experience in large-scale enterprise or multi-entity environments Practical experience with Data Mesh mandatory. Technical Skills Architecture & Engineering Distributed data architecture Distributed systems design Infrastructure as code DevOps / DataOps / CI/CD practices Performance and scalability engineering Cloud & Infrastructure Advanced expertise in AWS and Azure Hybrid and on-premise architectures Cloud security and governance Data Platform Data products and data lifecycle management Data pipelines and orchestration Metadata and catalog management Data governance frameworks Data observability Product & Delivery Product mindset applied to technical platforms Roadmap and backlog management Agile delivery methodologies Value-driven development Critical Soft Skills Strong technical and operational leadership Execution and delivery mindset Ability to operate hands-on in complex environments Excellent cross-functional communication Strong ownership and accountability Problem-solving and pragmatic decision-making Ability to influence without direct authority Strategic thinking with operational focus Stakeholder management at executive and operational levels Fluent English (mandatory — written and spoken) Success Metrics Platform successfully delivered and operational in production Adoption across business domain Number and quality of deployed data products Platform reliability and performance User satisfaction and platform usage Reduced time-to-market for data use cases
Freelance

Mission freelance
QA Data

Cherry Pick
Publiée le
Azure
Databricks

12 mois
340-390 €
Paris, France
Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data pour l’ensemble des enseignes et des fonctions d’appui du client En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data et serez rattaché à la squad Équipement de la Maison. Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : Participer aux ateliers/rituels agiles Réaliser la stratégie de test Identifier et réceptionner les environnements de test Analyser et évaluer les cas d'usage/User Story Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données Exécuter les cas de tests Créer et suivre les défauts avec les différentes parties prenantes Maintien du référentiel de test Réaliser le PV de recette Présentation des sujets en CAB pour passage en production Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité. Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks - Confirmé - Important Environnement azure microsoft - Confirmé - Important Savoir Faire : Expérience minimum de 4 ans en tant que QA avec des compétences de data analyste Profil technico fonctionnel SQL Server JIRA/XRAY Environnement Microsoft azure Databricks Utilisation de l'IA dans les tests (Génie Code) Outils de reporting Power BI, Microstratégy Savoir Etre : Collaboratif Entraide Force de proposition Implication/Engagement Amélioration Continue Communication fluide Qualité organisationnelle
Freelance
CDI

Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)

Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS

3 ans
50k-65k €
500-580 €
Paris, France
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Freelance

Mission freelance
Data Analyst Opérations & Maintenance

NEXTWYN
Publiée le
Azure Data Factory
BI
Big Data

3 mois
Paris, France
Nous recrutons un·e Data Analyst Opérations & Maintenance (Paris) Dans le cadre d’un projet stratégique au sein d’un grand groupe industriel international, nous renforçons notre pôle Data & IA et recherchons un Data Analyst O&M capable de valoriser des données issues de réseaux industriels complexes (IoT, supervision, maintenance, signalisation…). 🎯 Votre mission : transformer des données opérationnelles en insights concrets pour améliorer la performance, la supervision des actifs, la sécurité et la sobriété énergétique. Vous interviendrez sur la conception de tableaux de bord (Qlik) , l’ analyse de données , la qualité , la documentation , et la collaboration avec les équipes métiers dans un environnement international. 🔍 Vos responsabilités Recueillir et prioriser les besoins métiers avec les PO, CSM et équipes opérationnelles. Explorer, auditer et qualifier les données issues des systèmes industriels. Concevoir et développer des tableaux de bord (Qlik principalement). Standardiser et rationaliser les modèles de données avec les Data Managers. Documenter les règles de gestion et maintenir le dictionnaire de données. Réaliser les recettes fonctionnelles et mettre en place des plans de tests data.
CDI
Freelance

Offre d'emploi
Data Engineer, Azure Databrick (H-F)

K-Lagan
Publiée le
Azure
Big Data
Databricks

1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique , innovation et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Data Engineer / ML Engineer (F/H) pour rejoindre l’un de nos clients, dans un environnement data moderne et en pleine transformation, basé à Niort . 🔍 Contexte Vous interviendrez au sein d’une équipe data pour contribuer à la construction et à l’industrialisation de pipelines Data/ML , avec pour objectif de transformer des prototypes de data science en solutions robustes et scalables en production .
Freelance

Mission freelance
Consultant Architecte BI / Data – Boulogne-Billancourt (92)

Mon Consultant Indépendant
Publiée le
Azure
Azure Synapse
Data Lake

1 mois
350-400 €
Boulogne-Billancourt, Île-de-France
Consultant Architecte BI / Data – ERP M3 / Azure 📍 Boulogne-Billancourt (92) 🏢 Présentiel (5j / semaine) ⏱ 6 mois renouvelables – temps plein 💰 TJM : 550 € HT 🚀 Démarrage ASAP Objectif :Structurer une architecture décisionnelle robuste et fiabiliser les plateformes BI dans un environnement complexe. Mission : Définition et mise en œuvre de l’architecture BI / data Stabilisation et optimisation des environnements existants Intégration des flux ERP Movex / M3 , SQL Server, Netezza Déploiement data sur Azure (Synapse, Data Lake) Structuration du reporting ( Power BI, MicroStrategy ) À savoir Présence sur site requise. Mission technique et structurante, avec attendu fort sur delivery et stabilisation rapide.
5133 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous