L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 566 résultats.
Offre d'emploi
Lead Data Engineer (H/F)
Publiée le
Apache Spark
Big Data
Data management
3 ans
40k-71k €
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Lead Data Engineer / Data Engineer Senior pour renforcer une équipe data travaillant sur une plateforme moderne Azure / Databricks . Votre rôle : concevoir, industrialiser et optimiser des pipelines Big Data, tout en jouant un rôle de référent technique auprès de l’équipe. Compétences indispensables Big Data : Spark, Databricks Ingestion / Streaming : Kafka, Apache NiFi Cloud : Microsoft Azure Langages : Scala ou Java + Python + SQL Orchestration : Airflow CI/CD & DevOps : Azure DevOps, Git Compétences appréciées Dataiku Ansible Connaissance Data Lake / architectures medallion Vos missions Concevoir et industrialiser des pipelines Big Data (batch & streaming). Développer des flux d’ingestion avec NiFi, Kafka, Spark. Optimiser performance, qualité et scalabilité. Participer à l’architecture et aux choix techniques. Encadrer techniquement l’équipe (guidelines, bonnes pratiques, code review). Contribuer aux automatisations et à l’orchestration (Airflow, Ansible, DevOps).
Mission freelance
Expert informatica - Cloud Data intégration
Publiée le
Cloud
Informatica
36 mois
500-570 €
Niort, Nouvelle-Aquitaine
Installer et paramétrer les solutions Informatica PowerCenter et PowerExchange . Mettre en place les connecteurs vers différentes sources de données : DB2, Oracle, SAP, CDC . Assurer la gestion des incidents et le support aux projets . Accompagner les équipes de support au développement. Documenter les procédures d’exploitation. Participer à des projets de montée de version des solutions Informatica. Intervenir dans un environnement multi-sites (3 DataCenters) sous Linux et Windows .
Mission freelance
Architecte Data GCP
Publiée le
Architecture
Google Cloud Platform (GCP)
Python
3 mois
620-700 €
Hauts-de-Seine, France
Nous recherchons un Architecte Data GCP senior pour accompagner une grande organisation française dans la structuration et l’évolution de sa Data Platform au sein d’équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, équipes techniques transverses…). Vos missions En tant qu’Architecte Data, vous interviendrez sur un périmètre stratégique incluant : Architecture Data Garantir la cohérence et la standardisation de la stack technique entre les différentes équipes. Auditer l’architecture existante et proposer des améliorations structurantes. Définir les contrats d’interface entre les équipes (data products / data mesh). Participer à l’introduction et aux tests de nouvelles technologies. Veille technologique continue sur les solutions Cloud & Data. Developer Experience Contribuer à la rédaction et à l’industrialisation de modules Terraform / Terragrunt. Accompagner les équipes dans la montée en compétence sur l’Infrastructure as Code. Définir les standards CI/CD applicables à l’ensemble des équipes Data. FinOps Suivi et contrôle du budget Data (multi-équipes). Mise en place d’outils de monitoring, alerting et optimisation des ressources. Identification et priorisation des optimisations de coûts Cloud.
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Offre d'emploi
Data engineer MSBI Python Azure (7-8 ans minimum)
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS
3 ans
50k-65k €
500-580 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Offre d'emploi
Chef de Projet Technique IaaS, Data & Cloud
Publiée le
Cloud
IaaS (Infrastructure-as-a-Service)
Openshift
1 an
Île-de-France, France
Télétravail partiel
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un Chef de Projet Technique pour rejoindre une équipe spécialisée dans l’infrastructure, le cloud, la donnée, l’IA et le DevOps. MISSIONS PRINCIPALES : Piloter des projets sur les périmètres IaaS et DATA Définir les solutions cibles en collaboration avec les experts et les utilisateurs Coordonner l’ensemble des parties prenantes Structurer et animer la gouvernance des projets Établir et suivre les plans d’investissements et les budgets Identifier, analyser et gérer les risques projets Garantir la production des livrables selon la méthodologie interne
Mission freelance
data scientist
Publiée le
Data science
12 mois
400-550 €
Paris, France
Télétravail partiel
Prise en charge la réalisation des études et du développement des cas d’usage d’intelligence artificielle identifiés dans le cadre de plan stratégique mais aussi de besoins ad hoc remontés pour améliorer notamment l’efficacité opérationnelle. Dans ce cadre les missions et activités principales sont : • Identifier, tester et implémenter des approches permettant d’exploiter des technologies de machine learning et d’IA générative au service des processus risques • Explorer et exploiter les données internes • Faire évoluer les applicatifs IA existants (notamment applicatif de production GCP sur un cas d’usage de ciblage) • Echanger avec les équipes DSI et autres équipes de Data Scientists du Groupe • Assurer une veille technologique sur les évolutions des technologies d’IA générative
Offre d'emploi
Ingénieur Mathématiques Appliquées / ML Data Scientist
Publiée le
Azure
Google Cloud Platform (GCP)
40k-54k €
Paris, France
Redlab cherche pour son client parisien , un Data scientist confirmé ( 4-6 ans d'expérience ) pour un démarrage en début d'année 2026 , le consultant interviendra sur : Rôle Modélise, développe et optimise des algorithmes d’IA : ML, Deep Learning, LLM, optimisation et pipelines cloud. Missions clés Concevoir pipelines de données (Azure/GCP/AWS). Développer modèles ML/DL/LLM (TensorFlow, PyTorch). Fine-tuning (BERT, LLaMA, etc.). Optimiser modèles (pruning, quantification). Collaborer avec équipes Data & Dev pour intégration.
Offre d'emploi
Développeurs JAVA Back-End
Publiée le
Back-end
Docker
Git
1 an
40k-50k €
400 €
Île-de-France, France
🔎 Recherche : 3 Développeurs JAVA Back-End Senior (8+ ans) – Secteur bancaire Missions : Conception et développement de solutions JAVA de qualité Support applicatif Travail en méthodologie Agile Contribution à l’amélioration continue Environnement : Java 8/17/21, Spring / Spring Boot, Spring Data, Spring Batch, Microservices, Cloud, Jenkins, Maven, Git, TDD, PostgreSQL, Oracle (Notions : Docker, Kubernetes, BDD, Architecture Hexagonale) 👤 Profil recherché Développeur JAVA Back-End Senior 8 ans d’expérience minimum Expérience significative en secteur bancaire ou financier fortement appréciée
Offre d'emploi
Expert Big Data / Data Engineer Senior (H/F)
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
6 mois
80k-85k €
500-550 €
Guyancourt, Île-de-France
Télétravail partiel
VOS RESPONSABILITES PRINCIPALES : Build – Modernisation & migrations Data Participer au design et à la construction de nouvelles plateformes Data (on-prem Cloudera / Spark / Kafka & cloud AWS/GCP). Configurer, optimiser et sécuriser les environnements Big Data (Spark tuning, Kafka connecteurs…). Travailler avec les architectes et les CloudOps sur les architectures distribuées. Mettre en place des bonnes pratiques : backup, restauration, performance, haute dispo, PCA/PRA . Intégrer pipelines & automatisations (Terraform, GitOps, ArgoCD). Animer ateliers, documentation et transfert de compétences. Run – Support N2/N3 & performance Résolution d’incidents techniques Big Data (HDFS, Spark, Kafka, Flink…). Support aux projets : création de topics Kafka, scheduling Airflow, jobs Spark, optimisation. Montée de version, patching, maintenance préventive. Participation aux astreintes (rotation). Amélioration continue & fiabilisation des environnements critiques. Application stricte du cadre ITIL V4 (incidents / problèmes / demandes).
Offre d'emploi
Data Engineer NiFi
Publiée le
Apache NiFi
40k-65k €
Île-de-France, France
Télétravail partiel
En tant que Data Engineer chez Smile, vous ferez partie de notre aventure où chaque jour est une nouvelle occasion de construire des solutions qui dépassent les attentes de nos clients (et les vôtres !)🧑🚀👩🚀 Ce que vous ferez en tant que Data Engineer chez Smile ? Conception et développement de pipelines de données (ETL/ELT). Maintenance et optimisation de l'infrastructure de données. Mise en place de solutions de stockage et de traitement de données (data warehouses, data lakes). Collaboration avec les équipes de data science et d'analyse. Automatisation des processus de gestion des données. Veille technologique sur les outils et technologies de données. Côté technique justement, vous évoluerez dans un environnement Open Source ☕: Ingénierie des données et Cloud : ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker). Analyse de données et Business Intelligence : Visualisation (Power BI, Tableau), reporting, analyse prédictive, bases de données SQL/NoSQL. Développement logiciel et programmation : Développement backend, langages (Python, Java, Scala, R), API, intégration continue (CI/CD). Recherche et indexation de données : Moteurs de recherche (Elasticsearch, Solr), recherche full-text, optimisation de la performance des requêtes. Vous intègrerez un environnement stimulant où votre expertise et votre passion seront reconnues 💥. Nous vous invitons à participer à des projets captivants et à contribuer à notre croissance commune🌱. Smile s’engage pour un environnement où la diversité est une force et l’inclusion, un pilier. Ici, chaque talent est reconnu, respecté et encouragé à aller plus loin.
Mission freelance
Concepteur Développeur Big Data
Publiée le
Apache Spark
AWS Cloud
Azure
12 mois
400 €
Courbevoie, Île-de-France
Télétravail partiel
Mission Concepteur Développeur Big Data – Société de l'Énergie Localisation : Courbevoie (3 jours/semaine sur site) Tarif max : 400€/jour Démarrage : 05/01/2026 Durée : 12 mois (fin 04/01/2027) – prolongeable Expérience requise : 4-5 ans minimum Prestations principales : Analyse besoins RH/Finance + rédaction spécifications techniques Conception/développement pipelines ETL/ELT (Spark, Hadoop, Databricks, Snowflake) Intégration sources données/API + contrôle qualité Déploiement cloud (AWS/Azure/GCP) ou clusters Hadoop/Spark Optimisation performances (partitionnement, tuning clusters) Tests unitaires/intégration + revues code Maintenance évolutive, support incidents, veille techno Compétences obligatoires : Big Data, Hadoop, Spark, Python PostgreSQL, Databricks Livrables : Spécifications techniques + diagrammes Code source/scripts + tests complets Documentation exploitation + rapports performances Plan déploiement/rollback Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance . Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop) , les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP) , afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.
Mission freelance
Architecte Kubernetes OpenShift - Expert
Publiée le
Administration réseaux
Apache
Apache Kafka
12 mois
520-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre du renforcement d’une équipe SRE / Plateforme Cloud au sein d’un environnement complexe et critique, nous recherchons un Expert Cloud DevOps / Architecte Kubernetes & OpenShift . Le consultant interviendra sur la conception, l’industrialisation et la sécurisation de plateformes cloud natives, orientées microservices, data et haute disponibilité . Missions principales Architecture & Design Définir et valider l’architecture Cloud & Kubernetes en tant que Design Authority Élaborer les HLD (High Level Design) et LLD (Low Level Design) Concevoir l’architecture centrale et les standards de la plateforme Participer aux choix technologiques et aux roadmaps techniques Cloud & Conteneurisation Déployer et maintenir des clusters Kubernetes (AKS, EKS, OpenShift, Rancher) Expertise Red Hat OpenShift Mise en œuvre de plateformes cloud sur Azure (AKS) et AWS (EKS) Gestion des environnements hybrides / on-premise et data centers virtualisés DevOps & Automatisation Mise en place des pipelines CI/CD Automatisation des déploiements et de l’infrastructure (IaC) Accompagnement des équipes de développement sur les bonnes pratiques DevOps Sécurité & Réseau Sécurisation des plateformes Kubernetes et Cloud Gestion des secrets et identités ( HashiCorp Vault ) Architecture réseau, segmentation, politiques de sécurité Conformité, durcissement et bonnes pratiques sécurité cloud Data & Streaming Conception et intégration de Data Platforms Mise en œuvre de solutions de streaming et de data flow : Apache Kafka Apache NiFi Intégration avec des workloads data, IA et ML ( TensorFlow ) Microservices & Observabilité Architecture et exploitation d’architectures microservices Supervision, monitoring et gestion de la performance Haute disponibilité et résilience des plateformes FinOps Pilotage des coûts Cloud Optimisation des ressources et mise en place de bonnes pratiques FinOps
Mission freelance
Ingénieur DevOps Cloud Azure & Data - Confirmé 5 ans xp
Publiée le
Azure
Cloud
Databricks
1 an
Île-de-France, France
Télétravail partiel
Description du contexte Au sein de la Direction Digital et Data, le consultant intégrera le Data Lab , en charge de l’ensemble des projets BI et Data du groupement. La plateforme cible est le Cloud Microsoft Azure . Dans le cadre des projets de transformation, l’Ingénieur DevOps participera au déploiement et à l’industrialisation des solutions data. Polyvalent et à l’aise dans la communication avec les équipes techniques, il devra également contribuer aux sujets de sécurité, aux ateliers, et au suivi des recommandations issues des audits. L’environnement est Agile , et l’équipe composée d’une dizaine de collaborateurs. Missions principales Construire des infrastructures Cloud Public (principalement Azure) Industrialiser les architectures cibles & configurer les équipements (CI/CD) Mettre en place outils & procédures de supervision garantissant la haute disponibilité Participer aux phases de validation technique (mise en production & évolutions) Collaborer étroitement avec les équipes Développement, Sécurité et Projets
Mission freelance
Senior Data Engineer
Publiée le
Google Cloud Platform (GCP)
Python
Terraform
210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Mission freelance
data analyst GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 mois
100-400 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) DATA ANALYST GCP . Skills : GCP - BigQuery - anglais Mission : -collecter, nettoyer, structurer et analyser des données provenant de différentes sources GCP -construire des jeux de données fiables et documentés dans BigQuery -concevoir et maintenir des tableaux de bord -optimisation BigQuery -participer à la mise en place de bonnes pratiques de gouvernance de la donnée -contribuer au contrôle qualité N'hésitez pas à revenir vers moi pour des informations complémentaires.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
- Contrat de prestation ESN
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
566 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois