L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 743 résultats.
Mission freelance
Data Engineering Manager – Data Platform & Transformation H/F
Publiée le
Azure
Snowflake
6 mois
450-580 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Santé et pharma recherche un/une Data Engineering Manager – Data Platform & Transformation H/F Description de la mission: L’entreprise accélère sa transformation Data & IA et structure son organisation Data autour d’un modèle opérationnel à deux squads : Data Product Squad (orientée métier et création de valeur) Data Engineering Squad (mise à disposition de la plateforme, exploitation et enablement) L’entreprise recherche un(e) Data Engineering Manager expérimenté(e) pour piloter la Data Engineering Squad durant une phase de transition critique. La mission couvre trois objectifs menés en parallèle : Lancer et structurer la future plateforme Data cible , dont le socle technologique est en cours de validation et devrait s’appuyer sur Databricks ou Snowflake sur Microsoft Azure Migrer progressivement les environnements data historiques vers la nouvelle plateforme Assurer la livraison des projets métiers et clients en cours , à la fois sur les stacks existantes et sur la nouvelle plateforme, sans perturber les opérations Ce rôle requiert un fort leadership et une excellente capacité d’exécution . Responsabilités principales Piloter et manager la Data Engineering Squad (équipes internes et partenaires externes) Être responsable de la delivery , de la capacité et de la performance opérationnelle sur les plateformes legacy et cible Garantir la fiabilité , la performance , la scalabilité et l’ optimisation des coûts Structurer et piloter le bootstrap de la plateforme Data cible Planifier et exécuter la migration progressive des stacks legacy vers la plateforme cible Sécuriser la livraison des projets métiers et clients en cours sur les deux environnements Définir et faire respecter les standards Data Engineering et les modes de fonctionnement Agir comme point de contact principal avec les équipes Data Product, Architecture et IT Accompagner et faire monter en compétence les équipes Data locales sur les stacks technologiques Data Compétences & Expérience requises Expérience avérée en tant que Data Engineering Manager / Lead dans des environnements complexes et en transformation Solide expertise en plateformes Data et en Data Engineering Expérience confirmée avec Databricks et/ou Snowflake , idéalement sur Azure Expérience du management d’équipes mixtes (internes, consultants, offshore / AMS) Bonne maîtrise des enjeux de run , de gestion des incidents et de pilotage des coûts Expérience de migration de plateformes legacy vers une plateforme cible Excellentes capacités de leadership et de gestion des parties prenantes Profil senior requis (autonome, pragmatique, orienté delivery) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
Offre d'emploi
Développeur Full Stack JAVA PL/SQL (H/F)
Publiée le
Java
PL/SQL
36 mois
48k-58k €
450-530 €
Île-de-France, France
Télétravail partiel
SI TU NE CONNAIS PAS LE CHEMIN, CETTE ANONCE T'INDIQUERA LA BONNE DIRECTION ... CE QUE TU RECHERCHES : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi ! Au sein d’un acteur majeur du secteur du retail, tu participeras à la conception et à l’optimisation des plateformes backend : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L’architecture et/ou socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras
Mission freelance
Data Architecte H/F
Publiée le
Apache Airflow
Apache Spark
BigQuery
210 jours
510-770 €
Paris, France
Télétravail partiel
Rejoignez un leader français de l'audiovisuel pour une mission stratégique d' Architecte Data GCP . Vous accompagnerez la Direction Technique du Numérique dans la consolidation et l'optimisation de sa Data Platform, en interface directe avec les équipes Data (Product Owners, Data Engineers, Data Scientists). Votre rôle sera de structurer l'architecture technique globale, améliorer l'expérience développeur et piloter l'optimisation des coûts cloud. Vos Missions : 🏗️ Architecture Technique Garantir la cohérence de la stack data entre équipes et projets Définir et faire respecter les contrats d'interface (schémas, API, data contracts) Effectuer la veille technologique et évaluer les standards du marché Tester, auditer et introduire de nouvelles technologies Réaliser un audit de l'architecture existante et recommander les améliorations ⚡ Developer Experience Contribuer à la création de modules Terraform et à leur industrialisation Accompagner les équipes dans l'usage de l'Infrastructure as Code Définir les standards CI/CD pour les équipes data (tests, lint, automatisation) 💰 FinOps & Optimisation Mettre en place un suivi budgétaire par équipe Implémenter des outils d'alerting et monitoring (quotas, seuils, dérives) Identifier les leviers d'optimisation et participer à la roadmap FinOps
Offre d'emploi
Développeur Java
Publiée le
Kubernetes
18 mois
10k-30k €
100-300 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Cloud, Applications Web, Devops, APIs Compétences Technologies et Outils Linux GCP Java (5 ans) Docker Kubernetes Nous recherchons un profil confirmé en développement Java pour intervenir sur les APIs d’accès aux données clients grand public, au sein d’une équipe DevOps composée de 12 personnes. MISSIONS Le framework java actuel est JAX-RS, une migration vers Spring est prevue. Le candidat devra être familier avec les solutions de haute disponibilité, l’hybridation onprem/cloud public, la recherche de performance, les hautes volumétries, le tuning et debug sur une production critique. Expertise souhaitée - Expertise Java (5 à 10 ans) - Pratiques de développement : Tests unitaires, tests non-regression, modélisation (orienté objet) - Bonnes connaissances Linux, dans l’idéal Ubuntu - Version control : dans l’idéal git - Déploiement : docker, k8s, helm, gcp - Les connaissances/expériences qui seraient un plus : o rust o graphQL o Réseau : protocols (rest, http, https, tcp) et outils (wireshark, tcpdump, netstat, …)
Mission freelance
Data Engineering Manager (Bordeaux)
Publiée le
AWS Cloud
6 mois
400-750 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Libourne près de Bordeaux, je suis à la recherche d'un Expert Data Engineering Manager. Contexte et mission : Le client accélère sa transformation en matière de données et d'IA et structure son organisation autour d'un modèle opérationnel à deux équipes : • Équipe Produits de données (orientée vers les activités, axée sur la valeur). • Équipe Ingénierie des données (fourniture, exploitation et mise en œuvre de la plateforme). Il recherche donc un responsable Ingénierie des données expérimenté pour diriger l'équipe Ingénierie des données pendant une phase de transition critique. La mission couvre trois objectifs parallèles : • Mettre en place la future plateforme de données cible, dont la pile est actuellement en cours de validation et devrait être basée sur Databricks ou Snowflake sur Microsoft Azure. • Migrer progressivement les piles de données existantes vers la nouvelle plateforme. • Réaliser les projets commerciaux et clients en cours, à la fois sur les piles existantes et sur la nouvelle plateforme, sans perturber les opérations Ce poste exige un leadership fort et une grande discipline d'exécution. Responsabilités principales : • Diriger et gérer l'équipe d'ingénierie des données (équipe interne et partenaires externes). • Être responsable de la livraison, de la capacité et des performances opérationnelles sur les plateformes existantes et cibles. • Garantir la fiabilité, les performances, l'évolutivité et l'optimisation des coûts • Structurer et piloter le démarrage de la plateforme de données cible. • Planifier et exécuter la migration progressive de la pile existante vers la pile cible. • Assurer la livraison des projets commerciaux et clients en cours sur les deux piles. • Définir et appliquer les normes et les méthodes de travail en matière d'ingénierie des données. • Servir d'interface principale avec les parties prenantes des produits de données, de l'architecture et de l'informatique. • Soutenir et habiliter les équipes locales client Data sur les piles technologiques de données.
Offre d'emploi
Data Analyst / Power BI
Publiée le
BI
24 mois
40k-45k €
225-450 €
Istres, Provence-Alpes-Côte d'Azur
Dans le cadre d'un projet stratégique dans l'aéronautique de défense, nous recherchons un(e) Data Analyst pour intégrer une équipe en charge du suivi de la qualité des données . Vous rejoindrez une équipe dynamique et participerez activement à l'analyse des données migrées et saisies par les utilisateurs. 🛠️ Vos missions principales Analyser en profondeur les données migrées et les données utilisateurs Vérifier la conformité, la cohérence et la qualité des données Produire des rapports de suivi et d'évolution Participer à l'amélioration continue des processus de collecte et de fiabilité des données Contribuer à la création de dashboards sous Power BI (occasionnellement) Assister les utilisateurs sur leurs problématiques de données et relayer certains sujets internes (25 % du temps)
Offre d'emploi
Développeur c# .NET backend Azure (7-8 ans minimum)
Publiée le
.NET
Azure
3 ans
40k-60k €
400-550 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Asset Management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur sénior en c# qui maitrise Azure. Dans ce cadre, les taches qui seront proposées sont les suivantes : • Participation au cadrage des solutions à implémenter • Codage des US • Mise en place des pipelines CI/CD en collaboration avec l’infrastructure • Suivi de la recette, de l’UAT et de la production. • Rédactions de documentation Durée de la mission La mission est prévue pour 3 mois, renouvelable.
Mission freelance
Data Engineer Python / AWS (h/f)
Publiée le
1 mois
550-580 €
1000, Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Contexte : Le Data Engineer Python / AWS est chargé de concevoir et maintenir des pipelines de données efficaces au sein de l'équipe Power Data. Ce rôle exige une expertise approfondie en Python et AWS, ainsi que des compétences en ingénierie des données pour transformer les besoins commerciaux en solutions fonctionnelles basées sur les données. Livrables : Collecte de données Préparation et nettoyage des données à l'aide de Dataiku Création et maintenance de pipelines de données Ingestion de données dans un data lake Traitement et transformation des données selon des cas d'utilisation Intégration de Dataiku, services AWS et PowerBI Développement et maintenance de dashboards et rapports PowerBI Visualisation efficace des données Formation et mentorat sur les meilleures pratiques Compétences : Expérience en ingénierie des données (Data Engineering) Maîtrise de Python Expérience avec AWS Compétences en analyse de données et en création de modèles de données Connaissance de Dataiku et PowerBI Compétences en gestion de la qualité et sécurité des données Expérience en visualisation de données Anglais courant / Français est un plus Autres Détails : Télétravail 3 jours par semaine, intégration à une équipe à Bruxelles avec des déplacements occasionnels à Paris. Durée du contrat : 3 ans.
Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Offre d'emploi
Développeur Java Back et Front (H/F)
Publiée le
Lille, Hauts-de-France
Experis recrute un Développeur Java H/F ) afin d'intégrer l'équipe de notre client situé à Lille , et de participer à un projet de transformation digitale. Experis recrute un Développeur Java Full Stack (H/F) afin d'intégrer l'équipe de notre client situé à Lille, et de participer à un projet de transformation digitale. Your daily life : Intégrez une équipe de développeurs Prendre en charge les développements Back-end et Front-end S'assurer de la qualité des développements produits Etre force de propositions pour des évolutions de conception et techniques Piloter la maintenance corrective et évolutive
Mission freelance
Consultant technico-fonctionnel QA (SAP+Java)
Publiée le
Java
SAP ABAP
SAP ECC6
6 mois
400-700 €
Provence-Alpes-Côte d'Azur, France
Télétravail partiel
Aptenia recherche un Consultant technico-fonctionnel QA confirmé pour accompagner un projet stratégique dans un environnement mêlant SAP ECC / S/4HANA et applications Java . Le profil idéal possède une solide expérience en automatisation de tests (Tosca, Trisanti, qTest) et une bonne compréhension fonctionnelle des processus SAP. 🎯 Contexte du poste : Vous interviendrez dans un contexte qualité / automatisation au sein d’une équipe IT dynamique. Votre rôle : 👉 Apporter votre expertise sur l’automatisation des tests SAP + Java 👉 Contribuer à la fiabilité des livrables IT grâce à une stratégie de test robuste ⚠️ Profil habilitable obligatoire 🛠️ Vos missions principales : ▶️ Automatiser les scénarios de tests existants (SAP ECC, S/4HANA, applications Java) ▶️ Créer de nouveaux cas de test à partir des spécifications fonctionnelles ▶️ Exécuter et maintenir les campagnes automatisées (Tosca, Trisanti, qTest) ▶️ Analyser les résultats et remonter les anomalies aux équipes concernées ▶️ Participer à la stratégie globale de tests : régression, end-to-end, non-régression ▶️ Optimiser les scripts existants, améliorer la réutilisabilité ▶️ Collaborer étroitement avec les équipes IT, QA et métiers
Mission freelance
Chef de projet technique - IaaS et Data
Publiée le
IaaS (Infrastructure-as-a-Service)
12 mois
660 €
Yvelines, France
Télétravail partiel
Notre client, un établissement financier majeur, recherche un CP IaaS et Data pour renforcer son équipe Cette mission est au sein du centre d’expertise pour l’infrastructure, le cloud, la donnée, l’IA et le DevOps. Il accompagne les projets de transformation numérique, garantit la performance, la sécurité et l’innovation, et propose des solutions adaptées aux besoins métiers et applicatifs. La mission consiste à piloter des projets dans le cadre de création d’offre produit, de traitement d’obsolescence ou de mise en conformité (réglementaire, sécurité, amélioration de QoS). - Piloter des projets sur le périmètre IaaS et DATA - Définir les solutions cibles, en collaboration avec les experts, et en lien avec les besoins utilisateurs -Coordonner l’ensemble des parties prenantes -Structurer et animer la gouvernance des projets -Etablir les plans d’investissements et le suivi financier des projets, en lien avec le Contrôle de Gestion - Gérer les risques projets Livrables - Rédaction des notes de cadrage ; présentation aux parties prenantes (sponsors, Chief Platform Officer, PM, PO) et aux différents comités - Animation des comités de suivi - Suivi opérationnel de l’avancement des projets (respect des délais, des jalons …) - Suivi des risques et des plans d’actions associés - Suivi rigoureux des budgets alloués - Garant de la livraison de tous les documents conformément à la méthodologie Projets Environnement technique Cloud Infrastructures (VMWare, OpenStack, Openshift), OS Factory (Windows, Linux, Unix), Containers (Docker, Kubernetes), plateformes Data (Cloudera, MAPR, Data Cloud GCP, …), Data Storage (bloc, fichier, objet)
Offre d'emploi
Consultant Java / Cobol
Publiée le
COBOL
Java
Mainframe
3 ans
Paris, France
Télétravail partiel
Dans le cadre de projets, d’évolutions, d’assistance et de maintenance, le collaborateur interviendra au sein d’une squad agile, Le rôle implique une contribution active aux différentes phases du projet, notamment : Conception technique : élaboration des solutions en lien avec les besoins fonctionnels et les contraintes techniques Développement : réalisation des composants applicatifs selon les normes et bonnes pratiques en vigueur Tests et assistance à la recette : validation des développements et accompagnement des équipes de recette Mise en production : préparation et exécution des livraisons dans les environnements cibles Documentation : rédaction des livrables techniques, incluant : La documentation applicative Le dossier de tests unitaires Le dossier de mise en production (DTA)
Offre d'emploi
Data Engineer Junior (H/F)
Publiée le
Apache Spark
Databricks
Python
3 ans
35k-40k €
350-400 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Intégré(e) au sein d’une équipe Agile, vous participerez à : La conception et la mise en place de pipelines ETL performants L’ingestion, la transformation et la qualité des données La gestion et l’optimisation des flux Data dans un environnement Azure / Databricks / Spark L’automatisation des traitements et le monitoring des workflows La collaboration avec les équipes métier et Data pour répondre aux enjeux opérationnels La collaboration avec les équipes métier et Data pour répondre aux enjeux opérationnels
Mission freelance
Data Engineer Finance et Risque (H/F)
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
6 mois
400-650 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Localisation : Maisons-Alfort (94) Rythme : 2 jours sur site (lundi & jeudi) / 3 jours télétravail Expérience : +8 ans Démarrage : ASAP Mission longue Expérience en banque obligatoire. Python / Spark / Entrepôts de données / Data Warehouse 1. Description du poste Dans un contexte de transformation globale du SI et d'accélération autour des technologies Data & Cloud, nous recherchons un Data Engineer senior expert en Python , PySpark , traitement de données Spark et parfaitement à l’aise avec l’écosystème AWS . Le rôle implique une forte dimension d’ingénierie logicielle : développement Python , tests unitaires (pytest), participation aux tests fonctionnels automatisés, mise en place de code modulaire , robuste et industrialisé. Au quotidien, le Data Engineer devra concevoir et développer des jobs de traitement de données (notamment via AWS Glue), maîtriser l’ensemble de la stack AWS Data (S3, Athena, Secret Manager…), intervenir ponctuellement sur des instances EC2, et collaborer étroitement avec le Tech Lead afin de respecter les design patterns applicatifs et les standards d'architecture. L’objectif majeur de la mission est de modulariser et architecturer les process Data pour construire des solutions évolutives, intégrées et orientées métier. Le poste nécessite une posture proactive, autonome, dynamique, ainsi qu’un excellent relationnel avec les PM et les équipes métiers, dans un environnement Agile SAFe .
Mission freelance
Product Owner Data (Finance)
Publiée le
Backlog management
Data management
Finance
1 an
Montréal, Québec, Canada
Télétravail partiel
Product Owner Data – Secteur Bancaire (Montréal) Dans le cadre d’un programme de données stratégique, nous recherchons un(e) Product Owner Data pour intervenir chez un client majeur du secteur bancaire, basé à Montréal. 🎯 Contexte du mandat Programme de transformation et gouvernance des données Gestion de données transverses à l’échelle de l’organisation Collaboration étroite avec les équipes Data, IT et métiers 🧩 Responsabilités Porter la vision produit Data et gérer le backlog Recueillir, analyser et prioriser les besoins métiers liés aux données Travailler avec les équipes techniques (Data Engineers, Architectes, BI, etc.) Assurer la valeur business des produits Data livrés Participer aux cérémonies agiles (planification, refinement, reviews) Contribuer à la gestion de produit dans un contexte bancaire réglementé.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Utiliser Qonto pour créer la microentreprise
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
2743 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois