Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 219 résultats.
CDI

Offre d'emploi
Data Engineer Databricks - Paris

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
DATA ENGINEER Scala/Spark

KEONI CONSULTING
Publiée le
autonomie
Rundeck

18 mois
100-500 €
Paris, France

CONTEXTE L'entité a donc également un but humain en assurant la réussite des développeurs en reconversion. La mission consiste à renforcer une équipe de Data Engineers pour réaliser des projets Scala/Spark pour le compte de l’un de nos clients. MISSIONS Vous assurerez le pilotage de plusieurs projets basés majoritairement sur les technologies Python sur le périmètre de la filiale Energie. Le pilotage concerne l’ensemble des projets de cette filiale confiés à D2D. Les engagements de l’entité D2D envers la filiale sont assurés grâce à un plateau projet composé de 2 à 4 développeurs, un ops et un architecte. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : Le profil recherché pour la mission est celui d’un chef de projet SI/Data. Une expérience significative est requise pour ce poste. Il bénéficiera d’un accompagnement du responsable de domaine / directeur de mission sur le périmètre et du responsable de l’équipe Chefs de Projets Data pour les aspects outillage et méthodologie. Ce soutien sera plus important au début de la mission, notamment pour la prise en main des outils indispensables mais peu répandus comme TimePerformance. Qualités requises - Excellent relationnel - Capacité rédactionnelle - Capacité d’adaptation et de travail en équipe - Rigueur et esprit de synthèse - Esprit d’initiative - Autonomie

CDI
Freelance

Offre d'emploi
Data Engineer Sénior (Secteur Finance)

INGENIANCE
Publiée le
CI/CD
Microsoft Power BI
Microsoft SQL Server

3 ans
57k-67k €
550-650 €
Paris, France

Nous recherchons actuellement un data engineer sénior ayant une expérience dans le secteur de la finance (équipe global market ou compliance par exemple). Aspects contractuels de la missions : - Démarrage de la mission ASAP - Les locaux se situent dans le 13eme arrondissement de Paris - La mission sera de longue durée (3 ans). - Client dans le secteur bancaire. - Télétravail prévu 2 jours par semaine, présence demandée 3 jours par semaine - L'anglais fait partie de la mission : Communication avec des membres de l'équipe à Porto - Des astreintes seront mises en place pour la maintenance évolutive, avec 3 ou 4 nuits par mois, réparties sur tous les membres de l'équipe selon un planning determiné un mois en avance. Les week-ends tombent tous les 1 mois et demi pour tous les membres de l'équipe. L’équipe : - Adresse des sujets des différents métiers comme Global Market (rentabilité commerciale et performance des équipes de vente), trading (pour la demande de prix ur les plateforme éléctroniques), compliance (fournir des alertes en post trade pour les informations clients). - L'équipe travaille sur de l'on premise sur des datas centers (raisons de coûts et de sécurité). La mission consiste à mettre en place, gérer et modifier les pipelines de livraison. La partie maintenance évolutive reste une part importante de la mission, et comprends également une partie support niveau 2.

Freelance
CDI

Offre d'emploi
Data Engineer

OBJECTWARE MANAGEMENT GROUP
Publiée le
AWS Cloud
Python

210 jours
60k-91k €
560-610 €
Paris, France

Nous recherchons un(e) Data Engineer Senior / Expert pour renforcer notre équipe et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste requiert un profil expérimenté, capable d’allier expertise technique, bonnes pratiques de développement logiciel et accompagnement des équipes. Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. Encadrer et apporter une expertise technique sur les choix d’architecture et de stack. Déployer et orchestrer des traitements distribués (PySpark, Glue). Concevoir et exposer des APIs de données. Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. Partager les bonnes pratiques et contribuer à la montée en compétences de l’équipe.

Freelance
CDI

Offre d'emploi
Lead Data engineer GCP

Bluescale
Publiée le
Apache Airflow
Apache Kafka
Apache Spark

1 an
Île-de-France, France

En tant que Référent GCP , vous serez au cœur de l’innovation data : Concevoir et piloter le POC GCP (évaluation, architecture, migration des données). Définir et mettre en œuvre le plan de migration et accompagner les équipes internes. Assurer la maintenance, sécurité et optimisation de l’infrastructure GCP après migration. Apporter votre expertise à l’ exploitation et l’évolution du Data Lake existant : Maintenance et optimisation des infrastructures Big Data. Traitement et intégration de grands volumes de données (Kafka, Spark, Airflow). Développement et exposition de données (Java/Spring Boot, Angular, APIs). Participer activement aux cérémonies agiles (SCRUM) et à la gestion des incidents (support N3).

Freelance
CDI

Offre d'emploi
Data Engineer GEN IA

VISIAN
Publiée le
AWS Cloud
Databricks
PySpark

3 ans
30k-50k €
300-520 €
La Défense, Île-de-France

Expertise technique GenAI • Développer les briques techniques nécessaires à l’exécution des agents GenIA (API, orchestrateurs, connecteurs, sécurité, monitoring, vectorisation…). • Garantir la robustesse, la scalabilité et la maintenabilité des composants sur Databricks. • Déployer les composants techniques en collaboration avec l’équipe Plateforme. Conception et développement d’agents GenIA • Participer à la définition fonctionnelle des agents avec le tech lead et l’architecte en lien avec le Product Owners et les métiers. • Développer les agents en intégrant les modèles IA via des frameworks comme LangChain. • Tester, valider et optimiser les performances des agents. Travail en équipe projet dans une Squad • Travailler sous l’animation d’un Scrum Master, en collaboration avec un Tech Lead et un Architecte. • Participer aux rituels agiles (daily, sprint planning, review, rétrospective). • Être force de proposition sur les choix techniques et les bonnes pratiques de développement.

CDI

Offre d'emploi
Data Engineer (h/f)

emagine Consulting SARL
Publiée le

45k-49k €
75017, Paris, Île-de-France

Résumé : Ce poste de Data Engineer a pour but principal d'analyser les besoins métiers afin de créer des indicateurs clés de performance (KPI) et de les visualiser à l'aide de Power BI. Responsabilités : Vous serez chargé de traduire les besoins métiers en solutions techniques et de garantir la qualité des données. Les principales responsabilités comprennent : Traduire les besoins métiers Rédiger les spécifications techniques à partir des besoins d'affaires Récupérer les données via des tickets Transformer les données sur Talend Faciliter et mettre en place les KPI Créer des dashboards complexes et appliquer des filtres sur Power BI Comprendre les cubes Azure Must Haves : Les compétences et qualifications suivantes sont obligatoires : Expérience avec Power BI Compétences en Talend Connaissance des cubes Azure Expérience en rédaction de spécifications techniques Nice to Have : Les compétences complémentaires qui seront un plus : Expérience en data engineering dans le domaine d'activité spécifique Connaissance des méthodologies Agile Compétence en data visualization Autres Détails : * Lieu : 75 * Prestation : temps plein hybride (3 jours sur site, 2 jours télétravail, modulables) * Démarrage : ASAP * Durée : 03 à 36 mois

Freelance
CDI

Offre d'emploi
Software Data Engineer H/F

HIGHTEAM
Publiée le
Scala

3 ans
La Défense, Île-de-France

Nous recherchons un(e) Software Data Engineer pour l'un de nos clients grand compte. Missions : • Concevoir et implémenter les composants/pipelines d’ingestion de données en scala spark • Traiter et normaliser les données • Refactoriser des imports existants pour être compliant avec l'architecture médaillon (silver + gold layers) • Appliquer/challenger les règles métier pour générer la couche gold tout en garantissant les performances, la scalabilité et les coûts cloud • Distribuer les données aux différents consommateurs/Métiers • Implémenter les règles de Data Quality (DataQuality framework) et gérer le data calatog • Développer et améliorer les frameworks communs (monitoring, CI/CD, tests, performance, résilience, standards de développement, qualité du code) • Rédiger et maintenir la documentation technique des développements réalisés : schéma d'architecture, Infra, Flux, … • Garantir le respect des standards du Groupe en matière de qualité, sécurité, partage, usage et architecture des données • Participer au développement et à la maintenance du calculateur en Scala Spark avec l'objectif : - d'optimiser le temps de calculs, - d'optimiser les performances, - de garantir la scalabilité au regard d'un accroissement annuel important du volume des market operations, - de maîtriser et d'optimiser les coûts cloud. • Être force de proposition pour améliorer les processus et les performances des systèmes. Compétences requises : • Expertise en Scala et Spark. • Expérience significative dans le développement d'ETL en contexte Big Data. • Expérience AWS (Glue, Lambda, Step Function, S3, etc.) : niveau intermédiaire avec expérience pratique • Compétences Dev/Ops • Capacité à travailler en équipe et à communiquer efficacement avec les parties prenantes. • Organisation, orientation résultats et intérêt marqué pour le fonctionnel. • Des compétences en Python et REACT seraient un plus pour le candidat

Freelance

Mission freelance
Data Engineer GCP confirmé

Montreal Associates
Publiée le

10 mois
Lille, Hauts-de-France

Nous accompagnons actuellement un client final basé en Île-de-France , qui recherche un Data Engineer confirmé/expert GCP pour renforcer son équipe pluridisciplinaire (Data Engineer, DevSecFinOps). Contexte & missions principales : RUN : Maintien en condition opérationnelle (RDO multi-sources, 15 applications), gestion des incidents, suivi des flux, mise en production via Git. BUILD : Conception & développement de solutions data (BigQuery, Data Lake, SQL), modélisation sous gouvernance data, intégration Supply Chain, tests & reporting. EXPERTISE : Apport d'expertise GCP, montée en compétences sur le SI, approche FinOps (maîtrise et optimisation des coûts cloud). Livrables attendus : météo quotidienne, remontées d'alertes, scripts & requêtes, documentations, états d'avancement. Compétences requises : Expert impératif : GCP (BigQuery, Data Lake, SQL), GitLab, Terraform Confirmé : Script Shell, IWS, Airflow Langues : Français courant (impératif), Anglais bon niveau Informations pratiques : Démarrage : ASAP Localisation : Île-de-France (hybride) Durée : mission longue possible Contexte : client final - pas de sous-traitance Montreal Associates is acting as an Employment Business in relation to this vacancy.

CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-55k €
Nantes, Pays de la Loire

Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : ahorcmz9jc

CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-55k €
Levallois-Perret, Île-de-France

Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : m69oqbzal8

Freelance

Mission freelance
Data Engineer Expert - Finance - Assurance)

FINAX Consulting
Publiée le
Data management

12 mois
600-950 €
Paris, France

Data Engineer Expert pour la Modernisation du Système Finance (Assurance) Nous recherchons un Data Engineer Expert pour le compte d’un de nos clients assurance dans le cadre d’un projet de modernisation, de standardisation et d'harmonisation de son système Finance. Contexte Notre client, un acteur majeur du secteur de l' assurance , est engagé dans un projet stratégique visant à transformer son système d'information Finance. Ce programme a pour objectif la modernisation, la standardisation et l'harmonisation des processus et des outils Finance. Dans ce cadre, nous recherchons un profil de Data Engineer Expert pour jouer un rôle clé dans l'ingénierie des données de ce nouveau système. Rôles et Responsabilités Le consultant Data Engineer aura pour principales responsabilités : Concevoir et mettre en œuvre des solutions d'ingénierie des données pour le nouveau système Finance. Participer activement à la modernisation et à la standardisation des flux de données Finance. Assurer l'intégration, le traitement et la qualité des données provenant de diverses sources. Travailler en étroite collaboration avec les équipes métier Finance et les architectes pour garantir l'harmonisation des données. Compétences Clés & Techniques Une expertise de niveau Expert est exigée sur les points suivants : Expertise Technique : Maîtrise des technologies de Big Data et des environnements Cloud. Langages et Frameworks : JAVA (WEB), Spark, Angular, COBOL. Systèmes et Outils : MAINFRAME, VTOM. Visualisation et Reporting : Compétences sur Power BI. Domaine d'Application : Une connaissance approfondie du secteur Finance (idéalement en assurance ou banque) est un atout majeur. Anglais : Capacité à travailler dans un environnement technique et potentiellement international. Détails de la Mission Profil Recherché : Data Engineer Niveau d'Expérience : Expert Localisation : Paris Date de Démarrage : ASAP Durée : 12 mois. Taux Journalier Cible (TJM) : <950€.

Freelance

Mission freelance
Data Engineer - Azure

VISIAN
Publiée le
Architecture
Azure
Azure Data Factory

1 an
400-570 €
Île-de-France, France

Missions principales : Contribuer à l’évolution de l’offre de service de la plateforme Big Data & ML. Définir et maintenir le cadre de référence des principes d’architecture. Accompagner les développeurs dans l’appropriation de ce cadre. Définir les solutions d’exposition, de consommation et d’export des données métiers. Accompagner les équipes dans la mise en œuvre des solutions proposées. Participer à la mise en place d’API LLM dans le cadre du socle LLMOPS. Expertise technique attendue : Architecture & Cloud Azure Définition d’architectures cloud et Big Data distribuées. Automatisation des ressources Azure via Terraform et PowerShell. Connaissance avancée d’Azure Databricks, Azure Data Lake Storage, Azure Data Factory. Administration réseau : vNet Spoke, Subnets Databricks. Sécurité : RBAC, ACLs. Data & IA Platform Maîtrise de la chaîne d’ingestion de données : pipelines ADF (Collecte, Routage, Préparation, Refine…). Études d’architecture en lien avec l’évolution de la plateforme. Administration ADF : Link Services, Integration Runtime. Administration Databricks : Tokens, Debug, Clusters, Points de montage. Administration Azure Machine Learning : Datastores, accès, debug. CI/CD & DevOps Configuration Azure DevOps : droits, connexions de service. Développement de pipelines CI/CD avec Azure Pipelines. Gestion des artefacts avec Azure Artifact et Nexus. Automatisation des déploiements. Pratiques FinOps et optimisation des coûts cloud. Agilité & Delivery Utilisation de Jira : création d’US/MMF, configuration de filtres, Kanban. Participation active aux cérémonies Agile : Sprint, Revue, Démo. Développement & Collaboration Développement Python : modules socle, code optimisé, tests unitaires. Développement PowerShell : déploiement de ressources Azure. Maîtrise de Git : push, pull, rebase, stash, gestion des branches. Pratiques de développement : qualité, tests unitaires, documentation.

Freelance
CDI

Offre d'emploi
Senior Cloud Data Engineer

adbi
Publiée le
Apache Airflow
AWS Cloud
Docker

12 mois
Paris, France

Les équipes Data Systems de notre client recherchent un Senior Cloud Data Engineer passionné, basé à Paris, pour accompagner la forte croissance de leurs activités. En rejoignant l'équipe : Vous intégrerez une équipe autonome, impliquée dans un programme de transformation autour de projets de Data Engineering. Vous apporterez votre expertise sur la stratégie data, serez impliqué dans l’architecture et l’implémentation, et aurez l’opportunité d’expérimenter de nouvelles technologies. Vous jouerez un rôle clé en guidant les bonnes pratiques, en garantissant la fiabilité, la maintenabilité et la scalabilité des solutions que nous proposons à nos clients. Vos missions Concevoir, développer et déployer des solutions data sur le cloud (principalement AWS, mais aussi Azure ou GCP). Construire et maintenir des pipelines de données performants, sécurisés et automatisés. Travailler sur des architectures modernes type Lakehouse (Hudi, Iceberg, Delta) et appliquer des optimisations (Compaction, Z-Order, etc.). Orchestrer des pipelines avec Airflow et exploiter des environnements Hadoop / Spark. Développer en Python, SQL, Docker, avec mise en place de CI/CD et principes DevOps. Garantir la performance, la disponibilité et la sécurité des applications. Accompagner les membres moins expérimentés de l’équipe et partager les bonnes pratiques. Participer à des projets innovants et contribuer à l’évolution de notre offre Cloud Data Engineering. Profil recherché 5 ans minimum d’expérience pratique dans la construction de pipelines de données sur le cloud (AWS de préférence, Azure ou GCP acceptés). 3 ans minimum en architecture, conception, développement et support de solutions data. Connaissance des bases de données, ETL, BI, Big Data, Machine Learning et Advanced Analytics. Maîtrise des environnements Hadoop, Spark, Airflow. Expérience des architectures Lakehouse. Solides compétences en Python, SQL, CI/CD, automatisation et gestion de conteneurs (Docker). Connaissances de base en services cloud (réseau, sécurité, stockage, IAM). Bonne compréhension des méthodologies Agile et DevOps. Esprit ouvert, curieux et orienté apprentissage continu. Bon relationnel et capacité à collaborer avec des équipes pluridisciplinaires. Excellente communication écrite et orale en français et en anglais. Expérience souhaitée : infrastructures Linux, applications conteneurisées. Ce que nous offrons Participation à des projets data innovants et stratégiques. Un environnement stimulant, multiculturel et orienté partage de connaissances.

Freelance

Mission freelance
Data Engineer F/H - LILLE

Anywr freelance
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL

3 ans
400-500 €
59000, Lille, Hauts-de-France

Notre client, acteur majeur du secteur du Retail, renforce son équipe Data afin de soutenir sa stratégie de digitalisation et d’optimisation de l’expérience client. Dans ce cadre, nous recherchons un(e) Data Engineer passionné(e) par la donnée et désireux(se) d’évoluer dans un environnement stimulant et innovant. Missions principales : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour collecter, transformer et valoriser les données issues de différentes sources (e-commerce, magasins, CRM, supply chain, etc.). Assurer la qualité, la fiabilité et la disponibilité des données pour les équipes métiers, Data Science et BI. Participer à la mise en place d’architectures Big Data et Cloud modernes (Data Lake, Data Warehouse). Contribuer à l’optimisation des performances des traitements de données. Collaborer avec les équipes Data Analysts, Data Scientists et métiers afin de répondre aux besoins business (optimisation de l’expérience client, prévisions de ventes, gestion des stocks…). Mettre en place des bonnes pratiques de développement, de documentation et de monitoring. Environnement technique • Cloud & Data : GCP (BigQuery, Dataform) • Orchestration : Cloud Composer • Transformation : Dataform • Observabilité : Dynatrace • Référentiel & CI/CD : GitLab, Terraform, Cloud Build • Gouvernance & Qualité : DataGalaxy • Documentation & Pilotage : Confluence, JIRA (Scrum)

Freelance
CDI

Offre d'emploi
Data Engineer XP Exadata et GCP

ARDEMIS PARTNERS
Publiée le
Google Cloud Platform (GCP)

6 mois
40k-44k €
350-400 €
Balma, Occitanie

Dans le cadre d’un projet bancaire global stratégique, nous recherchons un Data Engineer pour rejoindre l’ équipe Cœur Data . Le référent technique contribuera à la mise en œuvre, au suivi et au bon fonctionnement des environnements décisionnels et Big Data , en étroite collaboration avec l’infogéreur et les différents acteurs du projet. Missions principales Assurer la mise en œuvre et la supervision des environnements Data (Décisionnel & Big Data). Réaliser des actions techniques directement et coordonner celles réalisées par d’autres intervenants. Être le point de référence technique pour garantir la fiabilité, la performance et la disponibilité des plateformes Data. Suivre les opérations de production (monitoring, optimisation, résolution d’incidents). Collaborer avec l’infogéreur pour le maintien en conditions opérationnelles (MCO). Participer activement aux projets de migration et de transformation , notamment vers le cloud (GCP). Documenter, industrialiser et améliorer les pratiques et processus de gestion des environnements Data.

219 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous