Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 219 résultats.
Freelance

Mission freelance
Lead DATA DATABASE - DATA Engineer Bases de Données

Cherry Pick
Publiée le
Data analysis
Database
ETL (Extract-transform-load)

1 an
550-600 €
64000, Pau, Nouvelle-Aquitaine

Dans le cadre d’un projet de développement visant à construire une base de données interne intégrant des workflows opérationnels, le Tech Lead Data Base interviendra au sein d’une équipe projets de données . Il aura pour rôle d’assurer la coordination technique , la conception data et l’ intégration de la base dans l’environnement SI de l’entreprise. Responsabilités principales Cadrer les besoins et proposer des évolutions techniques et fonctionnelles du produit existant. Assurer la liaison avec des sociétés de développement externalisées : suivi des exigences, respect des délais, qualité des livraisons. Piloter les scripts de développement et définir la stratégie de déploiement (intégration continue, automatisation, mise en production). Concevoir et intégrer la base de données dans l’architecture SI et la stratégie globale de données. Produire la documentation et les rapports, assurer une communication régulière auprès des parties prenantes. Profil recherché Compétences techniques Ingénierie de données (Data Engineering) : pipelines de données, modélisation, intégration ETL/ELT. Architecture de données (Data Architecture) : modèles de données, urbanisation SI, intégration dans un écosystème complexe. Solide maîtrise des bases de données relationnelles (PostgreSQL, Oracle, SQL Server). Connaissances en gouvernance des données : qualité, sécurité, conformité. Familiarité avec le Cloud (Azure, AWS, GCP) appréciée. Compétences fonctionnelles & méthodologiques Expérience en gestion de projets Data/IT et coordination de prestataires externes. Bonne compréhension des rôles Data Owner / Data Steward et des enjeux de data management . Capacité à documenter et produire des rapports clairs et synthétiques. Pratique des méthodes Agile / Scrum . Expérience & formation 5 à 10 ans d’expérience en ingénierie et architecture de données dans des environnements SI complexes. Expérience confirmée en pilotage technique et coordination multi-acteurs. Formation supérieure en informatique, data engineering ou équivalent . Anglais professionnel. Qualités personnelles Leadership technique, autonomie et rigueur. Excellentes capacités de communication et de coordination. Esprit d’analyse, de synthèse et orientation résultats. Conditions Poste basé à Pau , avec 2 jours maximum de télétravail par semaine .

Freelance
CDI

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)

NSI France
Publiée le
DBT
Google Cloud Platform (GCP)
Looker Studio

3 ans
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Freelance

Mission freelance
Data Engineer

Phaidon London- Glocomms
Publiée le
Apache Spark
Cloud
PySpark

6 mois
400-550 €
France

Développer et maintenir des pipelines de données robustes à l’aide de Python, Spark et SQL. Collaborer avec les data scientists, les analystes et les équipes d’ingénierie pour fournir des solutions de données de haute qualité. Optimiser les flux de données pour la performance, l’évolutivité et la fiabilité. Intégrer et gérer les données sur les plateformes cloud, en garantissant la sécurité et la conformité. Participer aux décisions architecturales et contribuer à l’évolution de l’infrastructure de données.

Freelance
CDI

Offre d'emploi
Data Engineer Spark Python

CELAD
Publiée le
Analyse

12 mois
40k-50k €
400-450 €
Charenton-le-Pont, Île-de-France

Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Offre premium
Freelance

Mission freelance
Data Engineer (GCP/Talend)

Onetribe SAS
Publiée le
Git
Google Cloud Platform (GCP)
Java

3 ans
500-610 €
Paris, France

• Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Freelance
CDI

Offre d'emploi
Data Engineer Senior AWS H/F

HIGHTEAM
Publiée le
Python

3 ans
La Défense, Île-de-France

Nous recherchons un(e) Data Engineer Senior AWS pour l'un de nos clients grand compte. La mission contribue dans la mise en place des Core Enablers / Frameworks & Applications communs aux 3 pays. - Mettre en place les flux de données entre les systèmes sources et cibles - Utiliser les services AWS pour la transformation et l’orchestration (Glue, Step Functions, Lambda…) - Superviser le delivery technique des composants applicatifs - Assurer la qualité des données et la traçabilité des échanges - Encadrer les développeurs et analystes dans la mise en œuvre des solutions data Compétences requises : AWS Cloud (Glue, Step Functions, Lambda, etc) Intégration des données & Monitoring de flux DevOps (Git, Azure Devops, …) Scripting Python Services de traitements et d'orchestration

Freelance

Mission freelance
Data Engineer AWS

Cherry Pick
Publiée le
AWS Cloud
C#
Python

12 mois
500 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte & Objectifs Intégré(e) à la squad Data Platform, vous interviendrez sur les activités de build, run et automatisation d’une plateforme de données Cloud (AWS / Azure). Votre rôle sera clé pour : Participer à la réalisation du workplan et aux user stories du backlog. Contribuer aux activités de support N2/N3 (RUN) et de Build. Livrer et suivre les artefacts de mise en production. Proposer et mettre en œuvre des optimisations FinOps, sécurité et observabilité. Développer des microservices et automatiser les pipelines & déploiements. 🛠️ Missions principales Participer au développement et maintien de la Data Platform Cloud. Créer et maintenir des processus de déploiement automatisés avec Terraform. Développer des microservices en Python et maîtriser l’intégration (CI/CD). Assurer le monitoring et l’exploitation via Grafana, App Insights. Contribuer aux flux ETL/ELT et à l’alimentation du Data Lake (AWS S3, ADLS Gen2). Gérer les activités RUN/SRE : supervision, support, automatisation. Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et FinOps. Collaborer en mode Agile/Scrum avec les parties prenantes (Data Officers, Data Architects, Engineers). Maintenir la documentation et promouvoir une approche User-Centric (recueil feedbacks, amélioration UX).

CDI
Freelance

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS

UCASE CONSULTING
Publiée le
Apache Spark
Microsoft Analysis Services (SSAS)
Scala

3 ans
25k-58k €
310-600 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Freelance

Mission freelance
Data Engineer Postgres / AWS / Python (H/F)

PREREQUIS
Publiée le
PostgreSQL

3 mois
400-600 €
Châtillon, Île-de-France

Nous recherchons pour l'un de nos clients un Data Engineer Postgres / AWS / Python (H/F). Missions Concevoir, développer et maintenir des pipelines de données. Assurer la gestion et l’optimisation de bases PostgreSQL (requêtes, alimentation, performances). Développer en Python pour les traitements et transformations de données. Exploiter l’environnement AWS et ses services associés. Mettre en œuvre un ordonnanceur AWS pour l’automatisation des workflows. Collaborer avec les équipes techniques pour garantir la fiabilité et la performance des solutions.

Freelance
CDI

Offre d'emploi
Data Engineer Pyspark/AWS

VISIAN
Publiée le
AWS Cloud
CI/CD
Flask

2 ans
40k-75k €
400-650 €
Saint-Denis, Île-de-France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Pyspark/AWS Missions: Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. Encadrer et apporter une expertise technique sur les choix d’architecture et de stack. Déployer et orchestrer des traitements distribués (PySpark, Glue). Concevoir et exposer des APIs de données. Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. Partager les bonnes pratiques et contribuer à la montée en compétences de l’équipe. Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia

Freelance

Mission freelance
Développeur / Data Engineer / DevOPS H/F

Insitoo Freelances
Publiée le
Apache Spark
Entreprise Java Bean (EJB)
Hadoop

2 ans
450-650 €
Paris, France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur / Data Engineer / DevOPS H/F à Paris, France. Contexte : Les missions attendues par le Développeur / Data Engineer / DevOPS H/F : L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ou.net )

Freelance

Mission freelance
Data Engineer AWS / Databricks

Groupe Aptenia
Publiée le
AWS Cloud
Databricks
Python

3 ans
450-500 €
Paris, France

Nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur une mission de conseil et d’optimisation d’une Data Platform AWS Databricks . ✅ Vos missions principales Auditer l’existant de la Data Platform AWS Databricks Proposer des préconisations techniques & méthodologiques pour renforcer la performance et la fiabilité Conseiller les équipes sur les bonnes pratiques Data & Cloud Contribuer à l’évolution et à la roadmap de la plateforme Accompagner les équipes internes dans la mise en œuvre

CDI
Freelance

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS

UCASE CONSULTING
Publiée le
Apache Spark
Microsoft Analysis Services (SSAS)
Scala

3 ans
25k-58k €
310-600 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Freelance
CDI

Offre d'emploi
Data Engineer Cyber

VISIAN
Publiée le
Apache Kafka
DevOps
Elasticsearch

1 an
40k-45k €
100-470 €
Montreuil, Île-de-France

Descriptif du poste Dans le cadre du déploiement du SOC ITG et de la collecte des logs sécurité de ses entités métiers, le bénéficiaire souhaite une prestation en ingénierie Data Collect et Data Transformation autour des solutions techniques Elastic Search et Elastic Beats, pour l'enrichissement d'un "puit de donnée sécurité" pour permettre la corrélation d'événements, et la mise en place d'alerting sur des paterns de sécurité. Missions Mise en place et définition des mécanismes de collecte Définition des patterns d'architectures de la collecte Déploiement de ces dispositifs sur le socle d'infrastructure Groupe, et sur les entités opérées dans les filiales ou à l'étranger Définition et mise en œuvre d'une stratégie de collecte uniforme et standardisée Mise en place de pipelines d'enrichissement de la donnée Maintien condition opérationnelle de la plateforme et des agents de collecte Mise en place de processus d'onboarding de nouvelles sources de logs ou d'assets en liens avec les responsables des systèmes monitorés Support et conseil aux entités utilisatrices des services Maintien et contrôle de la donnée collectée (exhaustivité et qualité)

Freelance
CDI

Offre d'emploi
Data Engineer Python / Spark

HIGHTEAM
Publiée le
Git
Machine Learning
PySpark

3 ans
40k-55k €
400-500 €
Île-de-France, France

Dans le cadre d’un projet pour l’un de nos clients dans le secteur de la finance , nous recherchons un Data Engineer avec une forte expertise en Python , Spark , et Git . La mission s’inscrit dans un environnement Big Data et suit une méthode Agile . Objectifs de la mission Le consultant contribuera à : Développer de nouveaux modèles et indicateurs Industrialiser ces développements dans un environnement de production APIser les services Produire une documentation fonctionnelle et technique Livrables attendus Développements en Python et Spark Scripts d’intégration (Shell, éventuellement Perl / PHP) Documentation technique & fonctionnelle Services API Code versionné sous Git / GitHub Méthodologie Travail en mode Agile / Scrum

Freelance
CDI

Offre d'emploi
Data engineer BI

VISIAN
Publiée le
AWS Cloud
Azure
Databricks

3 ans
40k-70k €
400-700 €
La Défense, Île-de-France

Contexte de la mission Dans le cadre d’un projet stratégique de reporting opérationnel , nous recherchons un·e Data Engineer expérimenté·e , orienté·e modélisation BI et performance , pour intervenir de bout en bout : structuration des données, création de modèles, alimentation du Lakehouse, et support à la datavisualisation métier (Tableau). Objectif : construire des tableaux de bord à forte valeur ajoutée tout en optimisant la qualité, les temps de réponse et les coûts liés à la plateforme. Missions principales Modélisation de données BI : modèle en étoile, flocon, Data Vault (si applicable) Manipulation avancée de données avec SQL Création de pipelines Databricks (Delta Lake, Notebooks, optimisation via Z-Order, caching, partitionnement…) Collaboration sur des notebooks pour analyses avancées Optimisation des performances sur environnement Lakehouse Intégration de Databricks avec des environnements cloud (Azure ou AWS) Participation à la conception des dashboards dans Tableau (Salesforce) Contribution active à la qualité de la donnée, documentation et bonnes pratiques

219 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous