Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 834 résultats.
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Freelance

Mission freelance
Architecte Data – Azure/Databrics

Hexagone Digitale
Publiée le
Azure
Azure Data Factory
BI

6 mois
450-550 €
Paris, France
Dans le cadre du renforcement de sa Data Factory, un grand groupe international accélère la structuration de sa plateforme data sur Microsoft Azure avec un usage central de Databricks pour le traitement, la transformation et la valorisation des données. L’environnement s’inscrit dans une logique Data Lake , organisation Bronze / Silver / Gold et montée en maturité data à l’échelle groupe. Mission L’Architecte Data interviendra sur la conception et l’industrialisation de la plateforme data Azure. Ses responsabilités principales : Concevoir et faire évoluer l’architecture data sur Azure Structurer et optimiser les pipelines data via Databricks (Spark) Mettre en place les traitements de transformation et d’agrégation Modéliser les données pour les usages analytiques Garantir performance, scalabilité et qualité des flux Participer aux ateliers de cadrage technique avec les équipes métiers et IT Contribuer aux standards d’architecture et aux bonnes pratiques data Compétences clés (Must Have) Databricks (obligatoire) Azure (Data Lake, Synapse, Data Factory) Spark / PySpark SQL avancé Architectures Data Lake – Bronze / Silver / Gold Conception de pipelines data industrialisés Modélisation Data Warehouse Compétences appréciées (Nice to Have) Power BI DAX MDM (Master Data Management) Data Quality / Gouvernance Data Mesh Azure DevOps / Git ERP (SAP) Profil recherché 5 à 10 ans d’expérience en Data Engineering / Architecture Data Expérience confirmée sur des environnements Azure + Databricks Capacité à intervenir sur des environnements data complexes Autonomie technique et posture structurante Bon relationnel et capacité à challenger les choix d’architecture Environnement de travail Cloud : Microsoft Azure Traitement data : Databricks, Spark Stockage : Azure Data Lake Gen2 Orchestration : Azure Data Factory BI (selon besoins) : Power BI Gouvernance (selon périmètre) : MDM / Data Quality Conditions de la mission Lieu de la mision : Paris Mission longue : 6 à 12 mois renouvelables Temps plein Télétravail partiel possible Démarrage rapide TJM : 450-550€
Freelance

Mission freelance
Développeur AZURE Data Factory pipelines données et optimisation SQL et BDDR

Clémence Consulting
Publiée le
Azure Data Factory
Microsoft SQL Server

3 mois
Paris, France
ROLE ET RESPONSABILITE : La mission comprendra les tâches suivantes : · Créer et optimiser des bases de données (SQL Server principalement). · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production.
Freelance

Mission freelance
PMO Data

Codezys
Publiée le
Animation
Data management
Gouvernance

12 mois
330-430 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre de ses programmes de transformation stratégique, notre organisation souhaite renforcer la mise en œuvre de ses initiatives « data ». À cet effet, nous recherchons un PMO expérimenté afin d’assurer l’animation opérationnelle des équipes plateformes. La mission consiste à coordonner et suivre l’ensemble des travaux liés à la mise en œuvre des attendus « data », en veillant à la conformité avec les enjeux de gouvernance et d’architecture data. Le candidat idéal devra posséder une solide expertise en architecture data et gouvernance , afin d’accompagner efficacement les équipes dans la réalisation des objectifs stratégiques. Type de mission : Temps plein Démarrage : Dès que possible Objectifs et livrables Management de la backlog d'évolution : Assurer la priorisation, la gestion et la coordination des évolutions nécessaires pour la plateforme data en alignement avec les objectifs du programme. Animation des rituels de suivi par plateforme : Organiser et animer les réunions régulières afin de faire le point sur l’avancement, identifier les risques et coordonner les actions correctives. Reporting au directeur de programme : Élaborer des rapports synthétiques et précis pour suivre l’état d’avancement, les enjeux et les résultats des travaux en cours auprès de la direction.
Freelance

Mission freelance
Business Analyst – ALM Treasury Transformation - Paris

Net technologie
Publiée le
ALM
Data quality
Recette

9 mois
Paris, France
Dans le cadre d’un programme stratégique de modernisation du SI ALM Treasury , nous recherchons un(e) consultant(e) pour accompagner la refonte des moteurs de calcul des indicateurs de risque de taux et de liquidité du Banking Book . 🎯 Missions Organisation et coordination des tests UAT des nouveaux moteurs de calcul Validation des modélisations (échéanciers, positions optionnelles, P&L, taux de cession interne) Contribution aux contrôles de Data Quality Coordination du déploiement des solutions en France et à l’international Animation d’ateliers métiers & coordination avec les équipes IT Suivi des roadmaps et dépendances projets 📌 Contribution possible à la rédaction de Business Requirements (≈20%).
Freelance
CDI
CDD

Offre d'emploi
Architecte IA – Azure / GenAI

RIDCHA DATA
Publiée le
Agent IA
Azure AI
Large Language Model (LLM)

1 an
Île-de-France, France
🔹 Contexte Dans le cadre de la mise en place d’un portail IA , une organisation du secteur de la protection sociale recherche un Architecte IA pour piloter la conception et la structuration des solutions. Le projet s’inscrit dans une dynamique d’innovation autour des technologies GenAI et des environnements Microsoft. 🔹 Missions principales Définir l’ architecture globale des solutions IA Concevoir des architectures basées sur des modèles LLM Mettre en place des solutions de type RAG Piloter les choix techniques et garantir la cohérence globale Assurer la scalabilité, performance et sécurité des solutions Accompagner les équipes techniques dans la mise en œuvre Participer à la gouvernance des projets IA 🔹 Environnement technique Cloud : Microsoft Azure IA / GenAI : Azure AI Foundry, Copilot Architectures : LLM, RAG, LangChain, LangGraph Dev : Python, FastAPI DevOps : Kubernetes, CI/CD 🔹 Compétences requises 10 ans d’expérience minimum Expertise en architecture IA / Data Très bonne maîtrise de Microsoft Azure Expérience sur les architectures LLM / GenAI Leadership technique et vision stratégique 🔹 Conditions Localisation : Paris Démarrage : ASAP
Freelance

Mission freelance
Consultant Azure Data Factory (H/F)

Webnet
Publiée le
Azure Data Factory
CI/CD
DevOps

6 mois
450-530 €
Paris, France
Dans le cadre du renforcement d’une équipe Data, nous recherchons un Consultant Azure Data Factory pour intervenir sur des projets décisionnels dans un environnement Microsoft Azure . Vous aurez pour missions : Au sein de l’équipe Data et en collaboration avec le chef de projet, vous interviendrez sur les activités suivantes : Créer et optimiser des bases de données (SQL Server principalement). Prendre en charge les développements de scripts SQL/Procédures. Prendre en charge les développements des pipelines Azure Data Factory. Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). Être force de propositions sur les optimisations de traitement Rédaction de la documentation (spécifications techniques), recettes. Gestion du code source via Microsoft Devops et déploiement CI/CD. Préparation des livrables pour les mises en production
Freelance
CDI

Offre d'emploi
QA Big Data

KLETA
Publiée le
Big Data
Hadoop

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
CDI

Offre d'emploi
Data Engineer

Recrut Info
Publiée le
AWS Cloud
Data Lake
Python

45k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Head of Data, vous participerez aux développements de la plateforme data. Dans un contexte cloud-first (AWS), vos principales missions seront les suivantes : - Concevoir, déployer et maintenir des systèmes de données résilients, sécurisés et scalables : bases de données, data warehouses, data lakes, traitements batch et temps réel, flux d’ingestion et transformations de données. - Développer, industrialiser et superviser des pipelines de données de type ETL/ELT. - Garantir la structuration, la qualité et la bonne gouvernance des données au sein des différents environnements de stockage. - Mettre en œuvre des solutions de Business Intelligence et de data visualisation telles que Power BI, afin de faciliter l’analyse et la prise de décision. - Répondre aux besoins de mise à disposition des données, de mise en production des modèles et d’optimisation des performances. - Concevoir et déployer des solutions d’exposition de la donnée via des API internes et externes. - Contribuer à la mise en œuvre de projets IA sur différents piliers métiers et business. - Sécuriser les architectures techniques et les échanges entre services en appliquant les meilleures pratiques de sécurité : IAM, gestion des habilitations, principe du least privilege, etc. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité)
Freelance
CDI

Offre d'emploi
Product Owner Big Data

KLETA
Publiée le
Big Data
Product management

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Product Owner Big Data pour piloter la roadmap d’une plateforme data industrielle et maximiser la valeur des produits data. Vous analyserez les besoins métiers et techniques, structurerez le backlog produit et proposerez des trajectoires d’évolution alignées avec la stratégie data de l’entreprise. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science, BI, Cloud et DevOps pour traduire les besoins en user stories claires, définir des critères d’acceptance et prioriser les fonctionnalités à forte valeur ajoutée. Vous accompagnerez la mise en place de produits data fiables, documentés et exploitables, en intégrant des enjeux de qualité, de gouvernance et de performance. Vous animerez des ateliers avec les parties prenantes, participerez aux cérémonies agiles et suivrez des indicateurs d’usage et de création de valeur. Vous aurez également un rôle clé dans la communication entre équipes techniques et métiers, en facilitant l’alignement stratégique et en promouvant une culture produit orientée données et impact business.
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
CDI

Offre d'emploi
Data Analyst (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
Microsoft Excel
SQL

35k-45k €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Préparation des données industrielles (BOM, gammes, postes, articles) en vue de la bascule vers SAP

Mon Consultant Indépendant
Publiée le
Data management
Gestion de projet

6 mois
500-540 €
Paris, France
Finalité de la mission : Dans le cadre de la mise en place du projet SAP, recherche d'une expertise Méthodes / Logistiques / Data analyst afin de : • Supporter l’équipe dans la structuration et la migration des données de production, méthodes, et logistique usine, entre notre système actuel M3 et notre futur système SAP S/4HANA • Garantir la fiabilité, la cohérence et la qualité des données de production et des « Master Data » dans SAP Missions principales : Gestion & fiabilisation des Master Data Production : • Participer à la revue des Master Data de production (nomenclatures (BOM), gammes de production, postes de charge, fiches article et vues MRP). • Vérifier que les données techniques sont complètes pour permettre la création et l’exécution correcte des OF (BOM active, gamme active, UM cohérentes, conversions d’unité, stratégies MRP…). • Garantir l’intégrité des données utilisées par la planification (MRP) et la logistique interne (PSA, staging, stockage). • Vérification de la cohérence du paramétrage interne à SAP en lien avec les règles de gestion définies • Contribuer en appui du BPO et du Data Manager à l’homogénéisation sur le paramétrage des Data entre usines (exemple pour la sous-traitance de production) • Coordonner et être en soutien du nettoyage des données sources avec les usines et les méthodes • Vérifier la cohérence des données de production vis-à-vis des règles de gestion établies • Participer à la constitution des fichiers de création, de migration et de chargement des données en lien avec notre Data Manager • Proposer éventuellement des améliorations ou des ajustements dans nos choix métiers en cours de définition pour ensuite correction lors de la phase des tests Support & gouvernance data : • Aider à la rédaction des SIT en particulier sur les données de Production, des Méthodes et de la Logistique Usine • Participer à la définition du dictionnaire de données et des règles de gouvernance. • Formaliser pour la Production et les Méthodes, et la Logistique Usine les règles de création, modification des Master Data et des données production à l'aide de procédures
Freelance

Mission freelance
Software Engineer Lead Expert Informatica IDMC

Nicholson SAS
Publiée le
API
Informatica
Informatica PowerCenter

9 mois
530 €
Paris, France
Secteur : Assurance / Services Financiers Localisation : Paris (Hybride : 2 à 3 jours de présence sur site par semaine) Durée de la mission : Du 01/04/2026 au 31/12/2026 TJM : 530 € 📋 Contexte de la mission Intégré au sein de l'équipe étendue "Produit d’Intégration de Données" de notre client (basée entre Paris et Lisbonne), vous évoluerez dans un environnement international piloté par un Product Manager et des Product Owners. En tant que Lead Expert , vous serez l'interface technique privilégiée entre l'équipe produit, les équipes projets, ainsi que les pôles Sécurité et Architecture du Groupe. Votre rôle est central pour accompagner la transformation Cloud de l'écosystème data. 🚀 Vos Missions (Services) Implémentation Cloud : Contribuer activement au déploiement des solutions Informatica CDI (Cloud Data Integration). Migration & Modernisation : Piloter la migration des flux existants (PowerCenter on-premise et Talend) vers l'environnement IDMC. Conception & Qualité : Concevoir, tester et documenter les nouvelles architectures de données. Support & Expertise : Apporter un soutien technique de haut niveau aux équipes projets et aux différentes entités mondiales (Europe, Asie, Amérique). Leadership Technique : Garantir l'application des bonnes pratiques de développement, assurer le mentoring de l'équipe et veiller au respect strict des directives de sécurité informatique. 📦 Livrables attendus Animation d'ateliers techniques et rédaction des documents de conception (High Level & Detailed Design). Développement et mise en production des applications sous Informatica CDI. Rapports de tests de non-régression et dossiers d'optimisation des performances. Documentation technique et guides de bonnes pratiques. 🛠 Profil recherché : Expertise & Compétences Expertises impératives : Informatica IDMC / CDI : Maîtrise experte exigée. Environnement : Capacité à travailler intégralement en anglais (contexte international). Technique : Expertise confirmée en intégration d' API et en scripting Unix . Bases de données : Excellente maîtrise de Oracle et SQL Server . Expertises appréciées (Plus) : Expérience sur Informatica PowerCenter ou Talend (pour faciliter les migrations). Connaissance d'autres modules de la suite IDMC . Expérience sur OpenPaaS ou des plateformes cloud similaires. Soft Skills : Poste de "Lead" : capacité à fédérer, à transmettre son savoir et à communiquer avec des interlocuteurs variés (Tech, Ops, Sécurité). Rigueur méthodologique et sens de l'organisation. 💡 Pourquoi rejoindre ce projet ? C'est l'opportunité d'intervenir sur un projet de migration Cloud d'envergure mondiale au sein d'un environnement technologique de pointe, avec une forte visibilité sur les enjeux d'architecture data moderne.
Freelance

Mission freelance
247811/Incident Manager Data Niort - Dynatrace, Confluence, ITIL

WorldWide People
Publiée le
ITIL

6 mois
350 €
Niort, Nouvelle-Aquitaine
Incident Manager Data Niort - Dynatrace, Confluence, ITIL Contexte de la mission Le Data Office de mon client définit les orientations stratégiques dans le domaine de la donnée et assure l'homogénéité et la performance de l'écosystème Data. L'équipe Exploitation des Services de Services Delivery Data pilote, assure et améliore au quotidien la disponibilité des services informatiques. Des compétences d'autonomie, de force de proposition tout en ayant une bonne connaissance des environnements de production sont indispensables. Le candidat doit avoir une posture d'amélioration continue. Objectifs et livrables Le poste d'Incident Manager a pour objectif de piloter le processus de gestion des incidents sur le périmètre Data, conformément aux bonnes pratiques ITIL. Il veille à la restauration rapide du service lors d’incidents, à la résolution durable des causes racines, et à la satisfaction du client. Objectifs et livrables Son rôle s’inscrit pleinement dans une démarche d’amélioration continue et de pilotage de la qualité de service. Les missions principales consistent à : ● Piloter le traitement des incidents selon ITIL. ● Coordonner les équipes techniques et suivre les escalades. ● Gérer les incidents majeurs (crise, communication, RCA). ● Assurer la production, l’analyse et la présentation des reportings opérationnels et de gouvernance. ● Participer aux comités techniques et opérationnels. ● Contribuer à l’amélioration continue des processus et de la performance du service. Compétences Requises Un minimum d’expérience est demandé (x<3 ans) avec des compétences avérées. Savoir-Être (Soft Skills) ● Connaissance du référentiel ITIL v4 (certification souhaitée). ● Expérience en pilotage d’incidents. ● Maîtrise de l’outil ITSM (Easyvista). ● Maîtrise du reporting (Google WorkSpace). ● Capacité d’analyse, esprit de synthèse et orientation résultats. ● Excellentes aptitudes en communication et en relation client. ● Rigueur, diplomatie, réactivité et sens du service. ● Activité réalisée partiellement sur site et télétravail. Compétences Techniques (Hard Skills) Le niveau d'expertise souhaité est détaillé ci-dessous : Compétence Niveau Souhaité Ordonnanceur (Control M) Élémentaire (*) Monitoring (Dynatrace) Élémentaire (*) Easyvista ITSM Avancé (**) Jira, Confluence, Google Workspace Élémentaire (*) Certification ITIL Avancé (**) Légende : Élémentaire (*), Avancé (**), Confirmé (***), Expert (****) Compétences demandées Compétences Niveau de compétence CONFLUENCE Expert DYNATRACE Expert ITIL Expert
CDI
Freelance

Offre d'emploi
Consultant DATASPHERE

Craftman data
Publiée le
Microsoft Power BI
SAP
SAP BW

6 mois
Paris, France
Contexte & mission : Dans le cadre de ses projets data, Renault recherche un Consultant SAP Datasphere pour concevoir, intégrer et gouverner les données d’entreprise afin de fournir des données fiables et exploitables pour le pilotage métier. 🚀 Responsabilités principales Recueil des besoins métiers (finance, supply, production…) Définition des KPI et rédaction des spécifications Conception de l’architecture data (Data Fabric / Data Mesh / DWH) Modélisation et structuration des données dans Datasphere Mise en place des flux (Data Flows, Replication Flows) Construction du modèle sémantique (mesures, dimensions…) Gouvernance, sécurité et gestion des accès Support et accompagnement des utilisateurs (SAC, Power BI…) Optimisation des performances et maintenance 🛠️ Compétences requises SAP Datasphere (Spaces, Data Builder, Business Builder) Data Flows / Replication Flows SQL & modélisation dimensionnelle (Star Schema, Snowflake) Écosystème SAP : S/4HANA, BW/BW4HANA, BTP ETL / ELT & intégration multi-sources Outils BI : SAP Analytics Cloud, Power BI ou Tableau 👤 Profil Consultant Datasphere +4 ans d’expérience Bonne compréhension des processus métiers Capacité à traduire les besoins en modèles data Autonomie, rigueur et bon relationnel
2834 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous