Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 213 résultats.
CDI
Freelance

Offre d'emploi
Data engineer - Vannes - 5-10 ans d'éxpérience

Argain Consulting Innovation
Publiée le
Agile Scrum
Apache
Apache Kafka

6 mois
40k-45k €
400-470 €
Vannes, Bretagne

Merci de bien lire l'annonce ci dessous et vérifier que vous correspondez au besoin. Nous recherchons exclusivement des candidats basés à Vannes ou en Bretagne . Merci de ne pas envoyer de candidature si vous êtes situés hors de cette zone géographique. En tant que Data Engineer , votre mission principale sera de produire des solutions techniques robustes et performantes pour exploiter au mieux les données du client. Cependant, votre rôle ne se limitera pas à l’aspect technique : vous serez également un partenaire stratégique des métiers , capable d’identifier leurs besoins, de comprendre leurs enjeux et de proposer des solutions techniques adaptées. Vos responsabilités : Concevoir, développer et maintenir des pipelines de données performants et évolutifs Participer à la définition de l'architecture Data Développer les solutions de collecte et de stockage des données Mettre en place les tests unitaires et automatisés Garantir la qualité, la sécurité et l’intégrité des données tout au long de leur cycle de vie. Implémenter des solutions qui optimisent la gestion des données pour les équipes métier. Collaborer étroitement avec les équipes métier pour comprendre leurs objectifs stratégiques. Faciliter la communication entre les équipes techniques et les non-techniciens Vous serez à la croisée des chemins entre technique et métier , jouant un rôle clé pour transformer les données en un véritable levier de décision. Votre capacité à allier expertise technique et vision stratégique fera de vous un acteur indispensable pour relever les défis de l’entreprise.

Freelance

Mission freelance
Data Engineer confirmé H/F

Insitoo Freelances
Publiée le
Apache Kafka
BigQuery
PowerBI

2 ans
100-508 €
Hauts-de-France, France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer confirmé H/F à Hauts-de-France, France. Contexte : Le profil intégrera une équipe Data en charge d'un périmètre fonctionnel Les missions attendues par le Data Engineer confirmé H/F : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data

Freelance
CDI

Offre d'emploi
Data Engineer

VISIAN
Publiée le
Gestion de projet
Java

1 an
40k-45k €
100-370 €
Montreuil, Île-de-France

Mission Dans le cadre d’un projet stratégique lié aux activités de marché, vous interviendrez en tant que développeur Java Full Stack au sein d’une équipe en charge du développement et du support d’un outil d’aide à la décision à destination des équipes de trading. Votre rôle allie expertise technique et compréhension fonctionnelle, afin de garantir la performance, la fiabilité et l’évolutivité de la solution. Répartition des activités La mission s’articule autour de trois grands axes, de manière équilibrée : 33 % Support applicatif : accompagnement des utilisateurs (traders, risk managers…), analyse des incidents, résolution des problèmes, suivi de la production. 33 % Développements rapides / tactiques : mise en œuvre d’évolutions ponctuelles ou de correctifs, avec un cycle de livraison court pour répondre aux besoins métiers urgents. 33 % Développements structurants ou gestion de projet : participation à des chantiers plus complexes nécessitant une approche projet, en lien avec les autres équipes IT et les utilisateurs finaux. Attendu à un niveau sénior sur ces sujets.

Freelance
CDI

Offre d'emploi
Data Engineer GCP + Talend

HIGHTEAM
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Microsoft SQL Server

3 ans
40k-55k €
400-550 €
Île-de-France, France

Pour l’un de nos clients Grand Compte, nous recherchons un Data Engineer spécialisé sur GCP et Talend . Missions principales : Analyser les besoins métiers et comprendre les impacts business des données afin de proposer une conception pertinente et alignée avec les objectifs stratégiques. Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub Cloud Composer). Améliorer la performance et la scalabilité des solutions existantes. Collaborer étroitement avec les architectes, PO et data analystes pour garantir la qualité et la bonne exploitation des données. Maintenir une documentation technique claire et à jour des processus et solutions mises en place. Réaliser la recette technique et participer à l’animation de la recette fonctionnelle avec les utilisateurs et le PO. Mettre en place et gérer des systèmes de monitoring pour assurer la supervision proactive des pipelines. Participer aux phases de déploiement et assurer la maintenance corrective et évolutive. Veiller à la cohérence des livrables avec les standards et bonnes pratiques de l’équipe. Compétences techniques requises :

Freelance

Mission freelance
Data engineer Snowflake (H/F)

HOXTON PARTNERS
Publiée le
Snowflake
Talend

3 mois
450-530 €
Pierrelaye, Île-de-France

Nous recherchons pour le compte de l’un de nos clients un Data Engineer Snowflake (H/F) dans le cadre d’un remplacement : Missions : Concevoir et maintenir des pipelines de données dans Matillion vers Snowflake. Intégrer diverses sources de données (API, bases, fichiers plats) dans Snowflake. Optimiser les traitements SQL et les configurations pour améliorer la performance et réduire les coûts. Mettre en place le monitoring et résoudre les anomalies sur les workflows ETL. Garantir la qualité, la fiabilité et la sécurité des données en production.

Freelance

Mission freelance
Data Enginner

ALLEGIS GROUP
Publiée le
Apache Spark
Hadoop
Java

3 mois
100-540 €
Île-de-France, France

Notre client grand compte est à la recherche d'un Data Engineer Scala/Hadoop Profil : Data Engineer (Spark / Hadoop) Nombre d’années d’expérience minimum : 5 Compétences techniques requises/indispensables : Solide maîtrise de Java Forte maîtrise de Spark Très bonne connaissance de l’écosystème Hadoop (Hive, Hdfs, Yarn, Hbase, …) Maîtrise des bases de données relationnelles et NoSQL Expérience dans l’optimisation performances des traitements Batch Spark Expérience avec les outils CI/CD (Git, Jenkins, Kubernetes, …)

Freelance

Mission freelance
Data Engineer

STHREE SAS pour COMPUTER FUTURES
Publiée le

24 mois
450-500 €
Dunkerque, Hauts-de-France

En tant que Data Engineer Senior , vous serez intégré à une équipe technique dédiée à la mise à disposition des données issues des nouvelles lignes de production. Votre rôle sera de concevoir, développer et maintenir les flux de données nécessaires à l'exploitation des systèmes industriels. Vos missions principales : Rédiger les spécifications techniques des flux de données (ingestion, transformation, traitement) Développer des pipelines de données avec Kafka , Talend , Spark (PySpark) Concevoir des solutions d'ingestion et de traitement de données à grande échelle Collaborer avec les équipes IT et métiers pour garantir la qualité, la fiabilité et la disponibilité des données

Freelance

Mission freelance
Data Engineer (H/F)

Insitoo Freelances
Publiée le
Google Cloud Platform (GCP)
HFSQL
Python

2 ans
100-420 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Contexte : Au sein de la direction DATA, nous sommes à la recherche d'un profil Data Engineer pour contribuer aux opérations de développement d'un projet DATA sous un environnement Google. Les missions attendues par le Data Engineer (H/F) : Sa mission sera de concevoir et développer les nouveaux flux de données (batch et temps réel) en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers. Ses principales missions seront les suivantes : - Analyser les besoins des métiers et les traduire en spécifications techniques (en contribuant également à l'élaboration des contrats d'interface et à la modélisation physique) - Développer des pipelines de données au sein de son périmètre - Veiller à la qualité et l'efficience des développements de l'équipe - Contribuer à la construction de la plateforme data et des services en remontant les besoins non couverts par le framework - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineers, Data Scientists et les équipes métiers. Votre profil : - Expérience significative dans l'utilisation des systèmes cloud GCP et de ses services dans des projets Data. (Bigquery, GCS, Pubsub, Cloud function, Composer etc...) - Expérience avec les processus de transformation des données ETL / ELT - Maîtrise du Shell - Connaissance du langage Python et de l’ordonnanceur Airflow - Excellentes connaissances du SQL et des grands principes de modèle de données - Sensible aux méthodes de travail agiles. - Autonome, curieux et proactif - Compétences : SQL : Expert GCP Big Query : Confirmé GCS & google cloud function : Confirmé Pyhon/Shell : Confirmé

Freelance
CDI

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)

NSI France
Publiée le
DBT
Google Cloud Platform (GCP)
Looker Studio

3 ans
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Freelance
CDI

Offre d'emploi
Data Engineer Snowflake

VISIAN
Publiée le
draw.io
ITSM
ServiceNow

2 ans
30k-63k €
400-550 €
Issy-les-Moulineaux, Île-de-France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Snowflake. Nous sommes à la recherche d'un consultant Data Analytics Engineer autonome pour mettre en œuvre une connectivité entre ServiceNow et Snowflake. Cette mission vise à exploiter les données de ServiceNow ITSM (incidents, demandes, changements, problèmes…) pour alimenter des cas d’usage analytiques à destination de plusieurs départements internes (IT, qualité, gouvernance, opérations…). Objectifs de la mission Établir et sécuriser une connexion technique entre ServiceNow ITSM et Snowflake Extraire et charger les données des modules ITSM suivants : Request Management, Incident Management, Change Management, Problem Management Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale) Structurer les données dans Snowflake selon une logique modulaire, réutilisable et exploitable à des fins analytiques Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité Documenter le pipeline, les schémas de données et les points de reprise Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake (data warehouse cloud) Orchestration : Airflow ou solution équivalente (à confirmer) Transformation : DBT Core / SQL (si besoin pour structuration analytique) Modélisation : DrawIO ou autre support outil libre. Visualisation : Tableau CI/CD / versioning : GitLab Documentation : Confluence, Jira,

Freelance

Mission freelance
Data Engineer

Sapiens Group
Publiée le
Apache Airflow
Gitlab
Shell

3 mois
270-500 €
Lille, Hauts-de-France

Dans le cadre du renforcement de l’équipe Socle Performance , rattachée à la direction DELIVERY BACK (département Finance, Services d’Appui, RH et RSE), nous recherchons un profil DevOps orienté data capable de faire le lien entre les enjeux métiers et les solutions techniques. Vos responsabilités : Analyser et comprendre les besoins des utilisateurs métiers, Proposer des conceptions techniques alignées avec les orientations cibles d’Auchan (GCP : BigQuery, Airflow, Cloud Run, etc., RDO, Git...), Prendre en charge l’ensemble des phases projet : de la conception au déploiement, en passant par le développement, les tests et la mise en production, Contribuer activement aux activités de RUN , de BUILD et aux démarches d’ amélioration continue .

CDI

Offre d'emploi
Data Engineer Talend - Paris

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Snowflake

50k-60k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation

Freelance
CDI

Offre d'emploi
Data Engineer

VISIAN
Publiée le
Dynatrace
Microsoft Power BI
Tableau software

1 an
40k-45k €
100-570 €
Montreuil, Île-de-France

Engineer System DREMIO Descriptif du poste Nous recherchons un Ingénieur Systèmes expérimenté sur la solution DREMIO pour intégrer l’organisation d’une Data Tribe. Vous interviendrez en support des filiales dans le cadre de leurs activités récurrentes (BAU) liées aux systèmes IT de données sur la plateforme de virtualisation des données Dremio. Vos missions incluront notamment : La surveillance quotidienne de la plateforme La gestion des incidents et des problèmes La coordination des déploiements avec les équipes IT OPS L’identification et la mise en œuvre des tâches projets ⚠️ Ce poste s’adresse exclusivement à un ingénieur systèmes disposant d’une expérience significative sur le logiciel DREMIO. Responsabilités Les principales responsabilités sont : • Production' Daily morning check: En cas de problème et/ou de retard avec les processus et/ou les flux, s'assurer que les bonnes équipes gèrent le problème et que l'entité est correctement informée dès que possible. D'autres environnements peuvent être inclus dans cette tâche de surveillance, mais la priorité est toujours la Production. • Surveiller le cycle de vie des incidents de production avec les filiales et les équipes IT OPS appropriées, et lancer une procédure d'escalade si nécessaire Communication régulière vers l'entité qui leur donnera la bonne visibilité sur l'évolution des problèmes. Soutenir les différentes équipes dans le dépannage et la résolution des problèmes liés aux données • Préparer des rapports : incidents, événements majeurs et proposer des améliorations dans les tableaux de bord de surveillance • Gestion des demandes d'infrastructure (bases de données, stockage, communications de flux ouvert, planification, surveillance, etc.) sur les différents environnements avec IT OPS Responsable de s'assurer que les modifications par IT OPS sont effectuées (surveiller, rapporter, communiquer) • Coordination de la gestion des livraisons avec IT OPS (chaîne d'outils CI/CD) pour les environnements de pré-production et de production – après validation des phases de test des entités • Surveillance des coûts d'infrastructure avec FINOPS • Analyser les modifications à apporter dans les environnements de production et fournir des recommandations • Analyser et évaluer les incidents opérationnels pour optimiser les actions correctives et préventives par l'escouade de la filiale • Favoriser une culture d'apprentissage et d'amélioration continue au sein de l'équipe

Freelance

Mission freelance
Data Engineer AWS expérimenté/sal

WorldWide People
Publiée le
AWS Cloud

4 mois
400-450 €
Boulogne-Billancourt, Île-de-France

Data Engineer AWS expérimenté. Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus Date de début souhaitée : début septembre Durée : jusqu'à fin d'année minimum Localisation : Boulogne Billancourt + Télé travail Télétravail possible à hauteur de 50% L'objectif est de déployer jusqu’à l’environnement de production ce qu’on appelle l’environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync) alimenté depuis un datalake on premise. Dans le cadre d’un nouveau produit déployé sur AWS, il faudra mettre en œuvre des services data et un front (cible génération de CR mode speech to speech) : · Résoudre les éventuels problèmes résiduels sur les environnements · Utiliser les services Data AWS, ainsi que bedrock, et les solutions de RAG etc... pour implémenter les Use Case Data et IA Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus Environnement technique : AWS solutions Data et IA

Freelance
CDI

Offre d'emploi
Architecte/ Data Engineer Dataiku

VISIAN
Publiée le
Apache Kafka
Dataiku
Dynatrace

2 ans
40k-84k €
460-720 €
Guyancourt, Île-de-France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Senior expert sur de l'architecture des Data Platforms sur du Dataiku/Kafka vos missions seront plus spécifiquement : - Maîtriser l'ensemble des techniques et technologies composant la Data Platform - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Data Platform - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Contexte technique - Base de données de type Sql/NoSql - Kafka - Dataiku - Scripting Python/SQL/Java - Suite Elastic - Zabbix - Dynatrace Attendus Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l’entreprise (flux, traitement, stockage et leur cycle de vie) - Rédiger les documents fonctionnels et techniques, d’exploitation, en veillant au respect des normes existantes - Automatiser les installations des socles techniques - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles pour prise en compte des flux de données

Freelance
CDI

Offre d'emploi
Data Engineer Senior (Python, Py Spark, AWS ) – Anglais courant)

HIGHTEAM
Publiée le
API
AWS Cloud
PySpark

3 ans
40k-62k €
400-620 €
Île-de-France, France

Pour l’un de nos clients grand compte, nous recherchons un Data Engineer Senior maîtrisant Python , Py Spark , les API , AWS , et ayant une forte expertise en modélisation des données . Le rôle implique la conception et la mise en œuvre de composants de la plateforme data, incluant : L’ingestion et le traitement des données La construction et l’amélioration d’un cadre technique commun : Monitoring CI/CD Tests automatisés Performance Résilience Qualité du code Bonnes pratiques de développement Activités principales Recueillir, analyser et challenger les besoins métiers Concevoir des solutions en accord avec les architectures définies Contribuer au développement en tant qu’expert / lead technique Écrire un code propre, réutilisable, fiable et conforme aux standards qualité Identifier et résoudre les problèmes (bugs, goulots d’étranglement, etc.) Fournir des solutions robustes et prêtes pour la production Mettre en place des outils de monitoring et d’alerte pour assurer la fiabilité des services en production Documenter les développements en anglais et partager les connaissances avec l’équipe Communiquer efficacement avec les différentes équipes projet

213 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous