Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 425 résultats.
Freelance

Mission freelance
Product Owner Data (H/F)

Freelance.com
Publiée le
Business Object
Gherkin
Google Cloud Platform (GCP)

3 ans
400-590 €
Maisons-Alfort, Île-de-France
Dans le cadre d’une équipe Data / BI dédiée aux besoins de reporting, infocentres et valorisation de la donnée, nous recherchons un Product Owner Data expérimenté . Le poste s’inscrit dans un environnement Agile à l’échelle, avec une forte interaction entre les équipes métier, data et IT. Le Product Owner sera responsable du pilotage fonctionnel et de la priorisation des besoins produits autour de la donnée , avec pour principales missions : porter la vision produit et contribuer à son exécution ; participer à l’ exploration continue des besoins ; définir, rédiger et prioriser les features et user stories ; gérer et animer le backlog produit ; contribuer à la stratégie de tests, recette et validation fonctionnelle ; accompagner les utilisateurs dans la conduite du changement ; assurer un reporting régulier auprès des parties prenantes ; participer à la gestion des incidents de production ; collaborer étroitement avec les équipes techniques, architectes, Scrum Master et responsables de train Agile. Le poste couvre l’ensemble du cycle projet : cadrage fonctionnel ; conception ; recette ; automatisation des tests ; déploiement ; support utilisateur ; amélioration continue.
CDI
Freelance

Offre d'emploi
Chargé (e) d'études Data SAS/SQL/PYTHON

K-Lagan
Publiée le
Python
SAS
SQL

1 an
35k-40k €
350-420 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet data faisait vraiment la différence dans votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets à forte valeur ajoutée, où la donnée est au cœur des décisions métier . Aujourd’hui, nous recherchons un·e Chargé·e d’Études Data / Data Analyst (F/H) pour rejoindre l’un de nos clients du secteur Assurance , basé à Niort . 🔍 Contexte Vous interviendrez sur des sujets data stratégiques, avec pour objectif d’exploiter et valoriser les données afin d’accompagner la prise de décision et optimiser les processus métier. 🎯 Missions Analyser et exploiter des volumes de données importants Développer et optimiser des requêtes SQL Réaliser des traitements et analyses statistiques (SAS / Python) Produire des études et reportings à destination des métiers Garantir la qualité, cohérence et fiabilité des données Participer à l’amélioration continue des outils et processus data
Freelance

Mission freelance
Chef de Projet Talend Data Integration – ETL & Streaming (Talend / Kafka) -- 92

Montreal Associates
Publiée le
Apache Kafka
API
Confluence

7 mois
550-700 €
Puteaux, Île-de-France
🚀 Chef de Projet Talend Data Integration – ETL & Streaming (Talend / Kafka) Dans un contexte grand groupe international et multiculturel, vous pilotez les services d’intégration data autour des plateformes Talend (Cloud & hybride) et Kafka Confluent , avec des enjeux forts de scalabilité, performance et gouvernance data . • Pilotage du RUN et des projets (CRM, PIM, annuaire…) • Cadrage des besoins, architecture et conception des flux data • Management d’une équipe offshore (Inde) • Suivi opérationnel des plateformes Talend & Kafka (monitoring, upgrade, incidents) • Gestion du capacity planning & facturation • Définition et diffusion des bonnes pratiques data & intégration 🔎 Ce que l’on recherche Un Chef de Projet Data très opérationnel , capable de piloter à la fois le RUN et les projets, avec une vraie expertise technique ETL/streaming et une capacité à gérer des environnements complexes à grande échelle. #Data #ETL #Talend #Kafka #Streaming #DataEngineering #ProjectManager #Freelance
CDI
Freelance

Offre d'emploi
Architecte Data Azure

KLETA
Publiée le
Azure
Databricks

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Freelance

Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Airflow / Composer

Pickmeup
Publiée le
Apache Airflow
BigQuery
Composer

3 mois
550-700 €
Paris, France
Un client migre sa dataplateforme legacy vers un socle full GCP. L'architecture et le plan sont validés. On recherche un experts polyvalents, moteurs de la migration, pas des exécutants. Vous portez plus spécifiquement l'orchestration du projet. Contexte : Vous rejoignez le pôle plateforme data (5 pôles au total) en binôme avec un autre Data Engineer GCP expert. Vous êtes tous les deux capables de tout couvrir, vous tirez l'équipe, vous posez les standards. Missions - Piloter la migration de l'orchestration vers Cloud Composer 2. - Nettoyer, rationaliser, porter les DAG existants, industrialiser les standards (CI/CD, tests, observabilité). - Orchestrer le cut-over legacy → cible sans double run. - Contribuer à la migration des pipelines BigQuery et à l'IaC Terraform du socle. - Transmettre à l'équipe interne au fil de l'eau. Stack (maîtrise attendue sur l'ensemble) Airflow 2.x, Cloud Composer 2, Python, BigQuery, Terraform, GCS, IAM GCP, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
CDI
Freelance

Offre d'emploi
Data Engineer (3+ ans d'exp)

WINSIDE Technology
Publiée le
API
DBT
Google Cloud Platform (GCP)

1 an
43k-57k €
360-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer pour une grande entreprise française sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans d'expérience professionnelle à minima en tant que Data Engineer. tu as 2 ans d'expérience professionnelle à minima en dbt, Snowflake ET Semarchy. Missions : Concevoir et développer des pipelines pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Les petits plus du candidat idéale : Connaissances IPAAS Familiarité avec les outils de workflow (Airflow, PubSub). Connaissance développement IA (Python, RAG...) Connaissance GCP (Cloud Provider, nous n'avons pas de Big Query) Démarrage : rapide. TT : 1 jour par semaine. Durée : longue. Localisation : métropole lilloise. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
CDI

Offre d'emploi
Data Engineer F/H

VIVERIS
Publiée le

40k-45k €
Belgique
Contexte de la mission: Dans le cadre du développement de nos activités data et de la montée en puissance de nos plateformes analytiques, nous recherchons un Data Engineer pour concevoir, construire et optimiser les pipelines de données alimentant nos applications métiers, nos plateformes analytiques et nos modèles d'intelligence artificielle.Vous rejoindrez une équipe Data pluridisciplinaire (Data Engineers, Data Scientists, Data Analysts, Architectes) et interviendrez sur toute la chaîne de traitement de la donnée : ingestion, transformation, structuration, optimisation, industrialisation et monitoring. Vos responsabilités: Vous serez en charge de: - Concevoir, développer et maintenir des pipelines de données robustes (batch & streaming) - Industrialiser la collecte, la transformation et la mise à disposition des données (ETL/ELT) - Assurer la qualité, la fiabilité et la disponibilité des datasets critiques - Participer à la modélisation et à la structuration des données (Data Lake, Data Warehouse) - Collaborer avec Data Scientists & Analysts pour fournir des données fiables et exploitables - Contribuer aux choix techniques et à l'évolution de l'architecture data - Documenter les pipelines, les schémas et les bonnes pratiques d'exploitation
Freelance

Mission freelance
Senior Software Engineer – Cloud Native / Fullstack (Node.js / React) H/F

Inventiv IT
Publiée le
API
AWS Cloud
CI/CD

6 mois
480-600 €
Île-de-France, France
🔹 Conception & Delivery Concevoir, développer et exploiter des solutions logicielles performantes Garantir la scalabilité, la maintenabilité et la fiabilité des systèmes Contribuer aux choix d’architecture et à la vision technique globale 🔹 Exécution & Ownership Traduire les besoins métiers en solutions techniques concrètes Collaborer étroitement avec Product Managers et Data Engineers Porter les décisions techniques et assurer leur mise en œuvre Contribuer aux sujets transverses améliorant la performance collective 🔹 Excellence Technique Développer et maintenir des applications modernes cloud-native Appliquer des standards élevés en engineering, tests et documentation Promouvoir les bonnes pratiques (clean code, CI/CD, code review) 🔹 Collaboration Participer activement aux revues de code Contribuer au mentorat et au partage de connaissances Communiquer efficacement avec des interlocuteurs techniques et non techniques Stack Technique Backend : JavaScript / TypeScript (Node.js) Frontend : React (ou framework équivalent) Architecture : Microservices, design d’API Cloud : AWS, GCP ou Azure DevOps : CI/CD, principes DevOps modernes Infrastructure as Code : Terraform, AWS CDK ou équivalent Sécurité : bonnes pratiques sécurité cloud
CDI

Offre d'emploi
Tech Lead - Développeur Java H/F

█ █ █ █ █ █ █
Publiée le
Apache Kafka
Big Data
CI/CD

Brest, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Développeur web / Data (H/F)

ADSearch
Publiée le

50k-60k €
Pantin, Île-de-France
Développeur web / data H/F – CDD – Pantin – Développement, Data, SQL La division IT de notre bureau Paris recherche pour son client, un organisme, un Développeur web / data (H/F) à Paris. Rattaché au responsable du département études et développement de la DSI, vous prenez en charge l’analyse, le traitement et la valorisation des données dans le cadre des missions qui vous sont confiées. Vous participez à la conception, au développement et à l’optimisation des applications nécessaires afin d’assurer la fiabilité et la performance des flux de données. VOS MISSIONS Vous serez en charge des missions suivantes : Collecter, nettoyer et structurer des données issues de sources variées (bases de données, API, fichiers externes). Réaliser des analyses pour répondre aux besoins métiers et formuler des recommandations basées sur les données. Concevoir des rapports et dashboards interactifs à l’aide d’outils de Business Intelligence. Gérer, maintenir et optimiser des bases de données
Freelance
CDD

Offre d'emploi
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
Elasticsearch

6 mois
50k-55k €
400-410 €
Île-de-France, France
Dans le cadre du développement de nos activités, nous recherchons un(e) Data Engineer pour renforcer l'équipe technique de notre client et intervenir sur des projets à forte valeur ajoutée autour de la data. En tant que Data Engineer, vous serez amené(e) à : Assurer le suivi technique des projets : suivi des développements, réalisation de revues de code et respect des bonnes pratiques Gérer les incidents techniques : analyse, résolution et mise en production des correctifs Proposer des améliorations techniques : identification des axes d’évolution et optimisation des performances et de la stabilité des applications Garantir la qualité du code : mise en place de tests unitaires et gestion de l’intégration continue Assurer la documentation technique : maintien à jour de l’architecture et de la documentation
Freelance

Mission freelance
Business Analyst DATA/ AMOA - Lyon (Banque /Assurance)

ARGANA CONSULTING CORP LLP
Publiée le
Agile Scrum
AMOA
BI

12 mois
450-500 €
Lyon, Auvergne-Rhône-Alpes
Au sein d’une équipe Agile , vous serez en charge de : 🔍 Analyse & cadrage Recueillir et analyser les besoins métiers Animer des ateliers avec les utilisateurs Rédiger les User Stories et contribuer au modèle de données / modèle d’entreprise Proposer des solutions fonctionnelles adaptées ⚙️ Conception & coordination Définir les solutions avec les développeurs Garantir la cohérence fonctionnelle et technique du SI Collaborer avec les architectes et urbanistes SI 📝 Documentation Rédiger et maintenir les spécifications fonctionnelles Produire les supports de présentation et comptes rendus 🧪 Tests & qualité Rédiger les cahiers de tests Réaliser les recettes fonctionnelles Qualifier les anomalies (recette, préproduction, production) Suivre les corrections jusqu’à livraison 🤝 Suivi Agile Participer aux rituels Agile (Daily, démo, etc.) Contribuer à l’amélioration continue 📦 Livrables attendus User Stories Spécifications fonctionnelles Modélisations de données Cahiers de tests Comptes rendus d’ateliers Rapports d’anomalies et suivi de correction
Freelance
CDI

Offre d'emploi
Data Engineer Kubernetes

KLETA
Publiée le
Helm
Kubernetes

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
CDI

Offre d'emploi
Data Analyst senior Digital product F/H

█ █ █ █ █ █ █
Publiée le
SQL

Auvers-sur-Oise, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Developpeur Java/API

DEVIK CONSULTING
Publiée le
AWS Cloud
Java
Javascript

1 an
500-650 €
Île-de-France, France
Description Pour le compte de notre client grand compte, nous recherchons un Développeur Senior Java / API pour rejoindre l’équipe API Content. Cette équipe est responsable du développement et de l’exposition des API REST fournissant les données descriptives des assets (hôtels, spas, restaurants). Tâches principales Développer de nouvelles fonctionnalités sur les API REST Concevoir et implémenter des solutions techniques complexes Participer au cycle complet de développement dans un environnement Scrum (You build it, You run it) Collaborer avec le PO, Tech Lead, développeurs et QA Stack & Compétence Java / Spring (expert) – indispensable Design de solutions complexes (expert) AWS (confirmé à expert) JavaScript – NestJS / Angular (apprécié) Anglais professionnel Connaissance du domaine RH est un plus Lieu : Ile-de-france 1 jours de présence sur site Poste incluant astreintes
Freelance

Mission freelance
Mission freelance - Data / AI Engineer Snowflake - Toulouse

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
Apache Spark
Python

1 an
300-480 €
Toulouse, Occitanie
Vos missions : Collaborer avec le métier pour concevoir des transformations data / AI pertinentes pour le business, Industrialiser et gérer des pipelines de traitement de données en production, Contribuer à l’implémentation d’évolutions des plateformes data de nos clients, Accompagnement du métier dans le cadrage et le delivery de leurs cas d’usage data Être force de proposition auprès du client dans l’évolution de sa plateforme data Participation éventuelle à des avant-ventes afin d’aider à la conception de solutions techniques pour nos futurs clients Qualifications ? Vos atouts pour nous rejoindre : Cloud Data / IA Platform : Snowflake Orchestrateur : Airflow Framework de calcul distribué : Spark Langage : Python, PySpark, Scala, Java Infrastructure As Code : Terraform CI/CD : GitlabCI, Jenkins Containers : Docker, Kubernetes Versioning : Git

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

2425 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous