Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 785 résultats.
CDI

Offre d'emploi
Product Owner Data F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Scrum

Marseille, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer Azure Data Factory - CosmosDB

Atlas Connect
Publiée le
Azure
Azure Data Factory
Azure DevOps

12 mois
490-550 €
Île-de-France, France
Vos missions En tant que Data Engineer , vous serez amené(e) à : Concevoir, développer et maintenir des pipelines d’intégration de données sous Azure Data Factory Assurer la gestion complète des flux de données : ingestion, transformation, normalisation et mise à disposition pour les différents services du SI Réaliser des transformations et agrégations complexes en SQL , dans une logique de qualité, de performance et d’industrialisation Collaborer étroitement avec les équipes métiers afin de comprendre leurs besoins et proposer des solutions techniques adaptées intégrées au Datahub Contribuer à l’ amélioration continue des processus Data : automatisation, fiabilisation, optimisation et bonnes pratiques Participer à la fiabilité et à la qualité du code et des déploiements dans un environnement industrialisé ⚙️ Stack technique Cloud : Azure (hébergement, stockage, orchestration) Data : Azure Data Factory Bases de données : Azure SQL, Cosmos DB Langages : SQL (avancé), Python (Azure Functions) Infrastructure : Terraform (Infrastructure as Code) Qualité & sécurité : SonarCloud, Snyk CI/CD & DevOps : Azure DevOps
Freelance

Mission freelance
Data Manager Lead

STHREE SAS pour COMPUTER FUTURES
Publiée le
Business Intelligence

6 mois
Paris, France
Piloter le projet de renforcement BI & Analytics (BIGUP), incluant la rationalisation du périmètre métier, la standardisation, l’amélioration du modèle de delivery et l’opérationnalisation du modèle opératoire. Gérer la gouvernance BI & Analytics en mode BAU (run). Faire appliquer la stratégie Data en veillant à ce que les standards Data soient définis et mis en œuvre. Les standards minimum requis sont : la politique de gouvernance des données, le cadre de Data Quality et le cadre Data By Design, supportés par la documentation des données. Mettre en place et accompagner le processus Data By Design avec les Data Architects, le Data Privacy Officer et les autres parties prenantes. Soutenir les Business Data Owners et Data Stewards dans leurs activités de gestion des données, y compris la mise en œuvre des frameworks Data dans leur domaine.
Freelance

Mission freelance
Data Platform Engineer

Phaidon London- Glocomms
Publiée le
Apache Spark
AWS Cloud
CI/CD

6 mois
400-550 €
Paris, France
Support Technique et Expérience Développeur Assurer un support quotidien aux ingénieurs et data scientists. Identifier et contribuer à la gestion de la dette technique ; fournir des outils d'automatisation et de test. Collaborer avec les équipes plateforme pour optimiser l'expérience développeur globale. Adoption de la plateforme et bonnes pratiques Promouvoir l'utilisation efficace des outils et fonctionnalités de la plateforme. Se tenir informé(e) des tendances du secteur et des technologies cloud/données pertinentes. Développement des compétences et animation de la communauté Évaluer les compétences de l'équipe et dispenser des formations ciblées. Animer une communauté de pratique pour présenter les améliorations et partager les bonnes pratiques. Produire de la documentation technique et des supports de formation. Retours d'information et évolution de la plateforme Recueillir les retours des utilisateurs et contribuer à l'amélioration du produit. Valider les livrables d'ingénierie de la plateforme par des tests alignés sur des cas d'utilisation réels. Défendre les intérêts des ingénieurs et des data scientists en interne.
Freelance

Mission freelance
Data Product Owner – Intermodal

LINKWAY
Publiée le
Business Intelligence
Confluence
JIRA

1 an
400-490 €
Île-de-France, France
Dans un contexte de transformation digitale et d'optimisation des flux logistiques mondiaux, nous recherchons un Data Product Owner spécialisé dans le transport Intermodal . Le secteur de la logistique vit une révolution axée sur la donnée, et l'intermodalité (la combinaison intelligente de différents modes de transport comme le rail, la route et le maritime) est au cœur des enjeux écologiques et économiques actuels. En tant que Data Product Owner, vous serez le chef d'orchestre de produits de données innovants destinés à optimiser ces flux complexes. Vous intégrerez une équipe transverse ("Squad") composée de Data Engineers, de Data Scientists et d'analystes, et vous ferez le lien vital entre les équipes techniques et les métiers opérationnels du transport. Définition de la Vision et de la Roadmap Produit : Vous serez responsable de la construction et du maintien de la vision produit. Cela implique de comprendre les besoins des opérationnels qui gèrent le transport intermodal au quotidien. Vous devrez traduire ces besoins business en solutions "Data" concrètes (tableaux de bord décisionnels, algorithmes d'optimisation de routes, outils de tracking prédictif, calculateurs d'émissions CO2). Vous élaborerez une roadmap claire à court, moyen et long terme, en priorisant les fonctionnalités qui apportent le plus de valeur ajoutée à l'entreprise (ROI). Gestion du Backlog et Delivery : Vous serez en charge de la rédaction des User Stories, en vous assurant qu'elles sont claires, testables et orientées vers la valeur utilisateur. Vous gérerez le Product Backlog, en arbitrant constamment les priorités entre les nouvelles fonctionnalités, la dette technique et les corrections de bugs. Vous animerez les rituels agiles (Sprint Planning, Daily Stand-up, Sprint Review, Retrospective) pour garantir un rythme de livraison soutenu et de qualité. Valorisation de la Donnée et Qualité : Le cœur de votre mission reste la donnée. Vous devrez travailler en étroite collaboration avec la gouvernance des données pour vous assurer de la qualité, de la fiabilité et de la disponibilité des flux de données entrants (IoT, systèmes TMS, données partenaires). Vous devrez identifier les sources de données pertinentes pour résoudre les problèmes de logistique intermodale (ex: temps d'attente aux terminaux, congestion ferroviaire) et transformer ces données brutes en insights actionnables pour les décideurs. Gestion des Parties Prenantes (Stakeholder Management) : Vous serez l'interlocuteur privilégié des différentes directions (Opérations, Commerce, RSE, IT). Votre rôle sera de fédérer ces acteurs autour du produit, de gérer les attentes parfois contradictoires et de communiquer transparentement sur l'avancement des projets. Vous devrez faire preuve de pédagogie pour expliquer les contraintes techniques aux métiers et les enjeux business aux équipes techniques. Accompagnement au Changement : Le déploiement d'un produit Data ne s'arrête pas à la mise en production. Vous accompagnerez les utilisateurs finaux dans la prise en main des outils, recueillerez leurs retours pour l'amélioration continue et mesurerez l'adoption des solutions via des KPIs précis (taux d'utilisation, impact sur la marge, réduction des délais, etc.).
CDI

Offre d'emploi
Lead of Data Analyst F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
SQL

Maroc

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Sénior Data Engineer SQL & GCP

INFOTEL CONSEIL
Publiée le
Google Cloud Platform (GCP)

3 ans
400-550 €
Roissy-en-France, Île-de-France
Pour un acteur majeur du transport aérien, nous recherchons un Data Engineer Sénior avec une forte expérience en SQL & GCP. L'équipe est constituée de 12 Data engineers, 1 Scrum Master et 1 Product Manager. Les Data Engineers sont responsables des nombreux pipelines de données qui alimentent le DWH mais aussi de ceux qui exportent les données vers les applications consommatrices Ces pipelines sont actuellement hébergés on-premise, mais migreront très prochainement vers GCP (à partir de mars 2026). Anglais courant obligatoire
Freelance

Mission freelance
[SCH] Lead Tech DataOps / Release & Run Data - 1294

ISUPPLIER
Publiée le

10 mois
400-454 €
Niort, Nouvelle-Aquitaine
Contexte : -Le Data Office pilote la stratégie data et l’homogénéité/performance de l’écosystème. -L’équipe Data OPS (Service Delivery Data) standardise les pratiques d’exploitation, le déploiement continu (GitLab Cloud & On-Prem) et l’industrialisation des usages Data. Mission : -Piloter l’exploitation et la stabilité/disponibilité des environnements (dev/test/prod + déploiement continu). -Assurer la gestion des versions (composants, configurations) en lien avec conception et release managers. -Mettre en place/maintenir la supervision & diagnostic (dépendances, observabilité, documentation/auto-doc). -Gérer les incidents : RCA, plans de remédiation, suivi actions. -Garantir la qualité de mise en production (tests, doc, conformité) + identification des risques. -Définir, suivre et faire appliquer les ENF (sécurité, perf, scalabilité, dispo). -Assurer la traçabilité des changements (config/versions). -Automatiser les déploiements et maintenir les pipelines CI/CD. Profil attendu : -Lead technique DataOps capable de faire le lien RUN / Release / DevOps sur un écosystème data. -Autonome sur la stabilité prod, la supervision, le diagnostic et la gestion d’incidents (RCA). -Capable de structurer la gestion de versions/configurations et la traçabilité (release/change). -Solide en CI/CD GitLab (cloud & on-prem) + industrialisation des déploiements (OpenShift). -À l’aise pour cadrer et suivre des ENF et sécuriser les mises en production. -Leadership, communication, sens du service, force de proposition.
Freelance

Mission freelance
Architecte DATA

Codezys
Publiée le
Azure
CI/CD
FinOps

6 mois
450-500 €
Dijon, Bourgogne-Franche-Comté
Poste à pourvoir : Architecte Data pour projet DataCloud Nous recherchons un architecte Data expérimenté afin de renforcer la maîtrise technique d’un projet DataCloud, dans un contexte où le départ d’un collaborateur en interne est prévu pour le 1er avril 2026. La mission consiste à assurer une transition efficace et à participer activement à la conception et à la maintenance de la plateforme DataCloud. Contexte : Le départ d’un collaborateur interne le 1er avril 2026 exige un renfort en architecture Data pour assurer la continuité et l’optimisation du projet. Mission : Analyser les besoins en données et usages métiers au sein de l’entreprise. Recommander des solutions adaptées de stockage et de gestion de Big Data. Contribuer à la conception de l’architecture de la plateforme. Participer à la mise en place des mécanismes d’observabilité de la plateforme. Implémenter la plateforme ainsi que les outils associés. Assurer la maintenance opérationnelle de la plateforme. Garantir la sécurité des accès et la protection de la plateforme. Définir et déployer une stratégie de monitoring des coûts et d’optimisation des ressources Azure. Activités principales : Participer à la Design Authority du projet. Prendre part aux réunions du Comité d’Architecture. Rédiger et relire la documentation technique ainsi que les présentations d’architecture. Animer et contribuer aux ateliers d’instruction, notamment en matière d’infrastructure, FinOps, habilitations, conformité, et CI/CD. Automatiser le déploiement et la gestion du cycle de vie de la plateforme. Surveiller le comportement et les performances de la plateforme. Participer à la résolution des incidents. Produire des KPI pour suivre la performance et la consommation des ressources. Informations complémentaires : Localisations préférentielles : Dijon, Chalon, Paris, Nantes ou Limoges. Séniors souhaités : minimum 5 ans d’expérience dans le domaine de la Data. Budget prestataire : Tarif Journalier Moyen (TJM) de 500€, à discuter selon le profil. Date de démarrage : dès que possible, avec un transfert de compétences prévu avant le 1er avril 2026. Profil recherché : Architecte « au chaud » dans le projet, capable de réaliser concrètement les tâches confiées, avec de bonnes compétences techniques et soft skills.
CDI

Offre d'emploi
Data engineer H/F

HAYS France
Publiée le

50k-60k €
Nantes, Pays de la Loire
Rattaché au Responsable Industrielle, vos missions sont les suivantes : Construire et piloter la stratégie d'exploitation des données industrielles, Prioriser les demandes des utilisateurs et traiter les incidents, Maintenir et faire évoluer l'architecture Edge (Hybride On Premise et Cloud) nécessaire à la valorisation de données, Gérer et organiser les données industrielles et les flux de données entrants et sortants (SQL Server, SSIS, Historian), Consolider les différentes sources de données On Premise dans la Datalake Azure et Cubes de données, Participer à la conception des reportings en lien avec les services métiers (amélioration continue, process, qualité, production…), Optimiser et pérenniser les systèmes existants en temps réel, Assurer l'accompagnement des utilisateurs clés.
Freelance

Mission freelance
Tech Lead Full-Stack Senior – Environnement Data & GenAI (H/F)

Freelance.com
Publiée le
BigQuery
CI/CD
Github

6 mois
400-640 €
Île-de-France, France
📍 Lieu : Saint-Ouen 📅 Démarrage : ASAP ⏳ Durée : 02/03/2026 → 31/12/2026 💼 Expérience requise : 9 ans minimum 🗣 Anglais : courant 🔎 Description du poste Dans un contexte d’innovation digitale autour des sujets Data, GenAI et performance média , vous intervenez en tant que Tech Lead / Développeur Full-Stack Senior au sein d’une équipe pluridisciplinaire (Tech Lead, Full-Stack, Data Scientist, Data Engineer, Product Owner, QA). Vous serez en charge de la conception et du développement d’applications permettant notamment d’offrir une vision consolidée de la performance des assets média, depuis la stratégie globale jusqu’à l’activation locale. Vos missions principales : Développer des applications front-end performantes et responsive (React.js, JavaScript moderne) Concevoir et exposer des API de consommation pour la valorisation des données (BigQuery, PostgreSQL, MongoDB) Concevoir et implémenter des services back-end en Node.js et Python (FastAPI) Modéliser et exploiter des données via MongoDB et PostgreSQL Sourcer les données dans le Data Lake BigQuery et alimenter des Knowledge Graph Mettre en place et maintenir les pipelines CI/CD (GitHub Actions, GitLab CI, Jenkins…) Être le référent technique auprès des équipes Cybersécurité, Data Privacy et Architecture Investiguer et résoudre les problématiques techniques (debug, performance, optimisation) Intervenir sur des sujets Cloud GCP
Freelance
CDI

Offre d'emploi
Data Engineer / Développeur PostgreSQL – Full Remote

STHREE SAS pour COMPUTER FUTURES
Publiée le
PostgreSQL

6 mois
Paris, France
Nous recherchons un Data Engineer / Développeur PostgreSQL confirmé pour intervenir sur un projet stratégique au sein d’une équipe technique dynamique. Missions : Développement et optimisation de procédures stockées Rédaction et amélioration de requêtes complexes PostgreSQL Participation à la structuration et au maintien de l’architecture data Contribution aux bonnes pratiques de développement et à l’amélioration continue Ce que nous offrons : Mission 100 % télétravail Projet long terme possible Contexte technique stimulant à forte valeur ajoutée Intégration au sein d’une équipe experte
CDI
Freelance

Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F

STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer - Databricks

VISIAN
Publiée le
AWS Cloud
Databricks
PostgreSQL

1 an
40k-70k €
400-700 €
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Freelance

Mission freelance
Data Engineer Snowflake (Migration SAP / BW)

VISIAN
Publiée le
Snowflake

3 ans
400-550 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre d’un programme stratégique de modernisation du système décisionnel, une organisation internationale engage la migration de ses données depuis un environnement SAP BW vers une plateforme Cloud Data moderne basée sur Snowflake. Vous intégrerez une équipe Data d’une dizaine de personnes dédiée à la migration, à l’industrialisation des flux et à la mise en place d’une architecture data scalable, performante et sécurisée. Missions Concevoir et développer des pipelines d’ingestion et de transformation de données depuis SAP et SAP BW vers Snowflake Garantir la qualité, la cohérence et la sécurité des données durant tout le processus de migration Collaborer avec les équipes métiers et IT afin de comprendre les besoins fonctionnels et adapter les solutions data Optimiser les performances des flux et assurer leur scalabilité dans l’environnement Snowflake Participer à la documentation technique et à la mise en place des bonnes pratiques Data Engineering Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration Participer aux échanges techniques au sein de l’équipe projet Livrables attendus Pipelines de données fiables et industrialisés Modèles de transformation optimisés Documentation technique des flux et architectures Recommandations d’optimisation et d’amélioration continue Environnement technique Obligatoire : Snowflake dbt Apache Airflow SQL Python SMP Apprécié : SAP SAP BW
Freelance

Mission freelance
PM / PMO Data & Digital Transformation

Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)

12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
1785 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous