Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 315 résultats.
Freelance

Mission freelance
Data Engineer

NEO SOFT SERVICES
Publiée le
Dataiku
SQL

24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Au sein de l'entreprise, la Direction des Systèmes d'Information métier (DSIM) est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du Système d'Information dédié à l'assurance vie et à la finance. Enjeux Stratégiques La valorisation de la donnée est au cœur de notre stratégie de transformation pour 2025-2026. Pour soutenir cette ambition, nous recherchons un Ingénieur Data expérimenté, de niveau III pour intégrer l'équipe de développement DATA DSIM. Vous rejoindrez notre nouvelle équipe DATA pour construire, maintenir et optimiser les plateformes et les pipelines de données, garantissant ainsi la fiabilité et l'accessibilité de la donnée pour l'ensemble de l'entreprise. Missions Clés de l'Ingénieur DATA Le consultant Data sera Rattaché(e) au chef de projet de l'équipe, ce sera un contributeur technique essentiel dans le cycle de vie de la donnée. Le consultant sera au cœur du nouveau modèle DATA Les missions principales incluront : Conception de Pipelines (ETL) : Concevoir, développer et optimiser des flux de données robustes et performants (ETL/ELT) pour l'alimentation des entrepôts et des DataMart. Modélisation : Participer activement à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle) adaptés aux besoins métier de l'Assurance Vie. Industrialisation : Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée, notamment via l'outil Dataiku Visualisation et Reporting : Assurer la bonne intégration des données pour leur exploitation dans des outils de Business Intelligence, notamment Tableau. Maintenance et Optimisation : Garantir la performance, la qualité et le maintien en condition opérationnelle de l'infrastructure et des flux de données. Compétences Techniques et Expertise Requises Nous recherchons un profil technique avec une forte appétence pour les outils d'industrialisation de la donnée Domaines de compétences clé Niveau Souhaité : Profil de niveau III exigé. Dans l'idéal une maîtrise de l'outil Dataiku est souhaitée pour la préparation et l'industrialisation des flux. Expertise du langage SQL. Capacité à challenger une solution, chiffrer les couts de réalisation et mener à bien les phases de qualification. Visualisation : Connaissance de l'intégration et de l'optimisation des données pour Tableau (ou équivalent )) Modélisation : Expertise en modèle de données (MCD, dimensionnel) et capacité à les mettre œuvre Expérience solide dans la conception et l'implémentation de processus ETL/ELT Expérience BO / SAS serait un plus dans le cadre des migrations à réaliser. Connaissance du métier de l'assurance vie serait un réel plus également Dispositif Souhaité : 3j sur site à Minima sur Niort des autonomie
Freelance

Mission freelance
Data Engineer Expert H/F

OUICODING
Publiée le

1 mois
580-900 €
Paris, Île-de-France
Accès, intégration et qualité de la donnée : -Garantir l'accès aux sources de données internes et externes -Superviser l'intégration de données de natures variées (structurées / non structurées) -Vérifier et contrôler la qualité des données entrant dans le Data Lake -Recetter la donnée : détection d'anomalies, suppression des doublons, validation des flux Qualification & gestion des données : -Capteur de données produites par les applications ou sources externes -Intégration et consolidation des données -Structuration de la donnée (modélisation, sémantique, normalisation) -Cartographie des données disponibles -Nettoyage et fiabilisation des jeux de données -Validation fonctionnelle et technique -Création et maintien éventuel de référentiels de données Gouvernance & conformité : -Contribution à la politique de la donnée -Structuration du cycle de vie des données -Respect des réglementations en vigueur (RGPD & friends)
Freelance
CDI

Offre d'emploi
Data Engineer Azure Data Factory

adbi
Publiée le
Azure Data Factory
Azure DevOps
DAX

1 an
45k-55k €
500-600 €
Île-de-France, France
Intitulé du poste : Data Engineer Azure Contexte du poste Au sein du Centre de Compétences Data, le Data Engineer participe activement aux différents projets de transformation digitale du groupe. Il conçoit, développe et déploie des solutions data et reporting permettant aux utilisateurs métiers d’analyser efficacement leurs activités à travers des tableaux de bord et indicateurs de performance. Missions principales Participer à la conception et à la mise en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts, Cubes). Concevoir et développer des processus ETL/ELT performants et automatisés avec Azure Data Factory , SQL Server Integration Services et Azure SQL Database . Garantir la qualité, la disponibilité et la performance des données. Modéliser les données (dimensionnelles et relationnelles) selon les besoins métiers. Maintenir en conditions opérationnelles les flux ETL et les environnements de données. Participer à l’industrialisation et à l’automatisation des pipelines via CI/CD Azure DevOps . Collaborer étroitement avec les équipes DevOps , Product , Design , Data et Management pour assurer la cohérence technique et fonctionnelle des solutions. Documenter les réalisations techniques, rédiger les spécifications et enrichir le catalogue de composants réutilisables. Fournir un support technique et fonctionnel aux utilisateurs finaux. Responsabilités complémentaires Réaliser des études de faisabilité et des cadrages techniques. Optimiser les performances des requêtes SQL, DAX et MDX. Mettre en œuvre la sécurité des données (Row Level Security sur toute la chaîne). Gérer la supervision, le debugging et le monitoring des flux BI. Contribuer à l’amélioration continue et à la standardisation des pratiques Data au sein du Centre de compétences Data. Compétences techniques requises Langages / Outils : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Environnements : GitLab / Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning Profil recherché Diplôme Bac+5 (Master) en Informatique , Statistiques ou Mathématiques appliquées . Expérience significative en développement et maintenance de solutions BI/Data sur environnement Microsoft Azure . Maîtrise des concepts de Data Warehouse et de modélisation dimensionnelle. Excellente capacité d’analyse et rigueur technique. Aisance relationnelle, sens du travail en équipe et esprit collaboratif. Niveau d’anglais professionnel (écrit et oral). Goût pour la transformation digitale et l’innovation. Qualités attendues Sens du service et orientation client. Capacité à gérer plusieurs interfaces dans un contexte international. Esprit d’initiative et autonomie. Curiosité technologique et volonté d’amélioration continue. Outils et technologies principales Azure Data Factory – Azure SQL Database – Azure Analysis Services – Power BI – ADLS Gen2 – GitLab – Azure DevOps – Visual Studio – SSMS – DAX Studio – Tabular Editor
Freelance
CDI

Offre d'emploi
Data Engineer Big Data

VISIAN
Publiée le
Apache Hive
Apache Spark
CI/CD

1 an
40k-45k €
400-560 €
Île-de-France, France
🎯 Contexte Au sein de la direction IT Data Management & BI , vous intégrez l’équipe Big Data & API / Squad Financing & Risk . L’équipe développe et maintient un datalake , utilisé comme plateforme de données par les équipes IT et métiers (finance, risque). 🚀 Missions En tant que Data Engineer , vous intervenez sur le datalake FinLake avec les responsabilités suivantes : Assurer la gestion de la production (suivi des flux, incidents, performance) Réduire et maîtriser la dette technique Analyser l’ architecture existante et proposer des évolutions Réaliser les développements Big Data liés aux projets métiers Participer aux déploiements et à l’industrialisation des traitements 🛠️ Environnement technique Big Data : Spark, PySpark, Scala, Hadoop (on-premise) Data & requêtage : Hive, SQL/HQL, Starburst, Indexima Scripting : Unix / Bash DevOps & industrialisation : Jenkins, CI/CD, XLDeploy, XLRelease Outils projet : Jira
CDI

Offre d'emploi
Data Engineer H/F

DCS EASYWARE
Publiée le

Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons notre futur.e Data Engineer confirmé.e sur Clermont Ferrand ! Allez, on vous en dit plus... En lien avec notre manager Sébastien, voici les missions qui vous seront confiées : - Récupérer et mettre à disposition des bases de données internes et externes. - Construire de nouvelles bases : - En nettoyant les données (identifier les données aberrantes et les supprimer) - En formatant les données (unités...) - En synchronisant les données (qui ne sont pas synchrones, ni à la même fréquence) - en calculant à partir des données brutes des quantités agrégées (pour l'usage, typiquement pente, courbure...) validant la cohérence des données brutes entre elles - En calculant des données complémentaires (construire des \"engineering features\") Vous serez également présent.e aux réunions projet pour assurer la coordination avec l'équipeEt si on parlait de vous ? De formation informatique avec une spécialité data ou équivalent, vous témoignez de minimum 3 ans en Data Engineering. Compétences techniques attendues : - Maîtrise de Databricks / Snowflake/ Snowpark - Python (PySpark, Pandas, SQL). - Expérience avec Dataiku et industrialisation de pipelines de données. - SQL, requêtage avancé. - Automatisation et industrialisation de process data. - Capacité à travailler en autonomie et à structurer un flux collaboratif. - Capacité à capitaliser et documenter son travail. Connaissances souhaitables : - Capteurs, sens physique - Dynamique véhicule - Dataiku - Requêtage base de données (SQL) - Gitlab Qualités : esprit d'équipe, autonomie, esprit de synthèse, force de proposition, hauteur de vue, capacité à délivrer. Notre processus de recrutement en 4 étapes ! Tout simplement - Dans un premier temps, vous échangerez avec l'un d'entre nous par téléphone - Puis, nous aurons le plaisir de nous rencontrer lors d'un entretien physique ou TEAMS - Pour finir, discutez métiers avec l'un de nos managers opérationnels - Bienvenue chez nous ! Pourquoi nous rejoindre : - Paniers repas 6,60EUR net / jour travaillé - Prime de participation - Prime de vacances - Prime d'ancienneté - Comité d'entreprise - Mutuelle familiale prise en charge à 60%
CDI

Offre d'emploi
Data Engineer (F/H)

INFOGENE
Publiée le

40k-50k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer (F/H) , venez renforcer notre équipe lyonnaise en ayant les responsabilités suivantes : Analyser et comprendre les besoins : Étudier l’existant pour identifier les axes d’amélioration et co-construire des solutions adaptées avec les équipes métiers. Concevoir et développer des pipelines de données : Créer des pipelines de données robustes, performants et évolutifs à l’aide de technologies comme Snowflake ou équivalent . Modéliser et optimiser : Concevoir des modèles de données performants et optimiser les requêtes pour répondre aux exigences métiers tout en garantissant un haut niveau de performance. Supervision et monitoring : Déployer des solutions de monitoring et d’alertes pour assurer la disponibilité et la fiabilité des traitements de données. Gérer les incidents techniques : Diagnostiquer et résoudre les problèmes liés aux pipelines ou infrastructures de données. Collaboration avec les équipes transverses : Participer aux projets en interagissant avec les experts métiers, les architectes techniques et les chefs de projet.
Freelance

Mission freelance
Data Engineer

Nicholson SAS
Publiée le
Apache Hive
Apache Spark
Argo CD

6 mois
550 €
Paris, France
Rejoignez Mon client banque assurance à Paris pour une mission stratégique au cœur de la plateforme Data du Groupe. Au sein de la squad « Restitutions Réglementaires », vous jouerez un rôle clé dans la mise en conformité et la valorisation des données assurantielles. Votre mission Sous un mode de travail hybride (3 jours sur site), vous piloterez la constitution des déclaratifs réglementaires (FICOVIE, FATCA, ECKERT, etc.). Votre intervention débutera par le chantier prioritaire FICOVIE , en exploitant des sources Big Data et décisionnelles complexes. Environnement Technique & Défis Vous évoluerez dans un écosystème On-Premise (MapR) exigeant : Core : Java 11, Spark, SparkSQL, Hive et Shell. Streaming & Batch : Maîtrise de Kafka (MaprES) pour l'optimisation des flux. DevOps & CI/CD : GitLab, Jenkins, Docker, Kubernetes et ArgoCD. Méthodologie : Agilité à l'échelle (SAFe) via JIRA.
Freelance

Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark

3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Freelance

Mission freelance
Data Engineer Senior – Datamart Finance & Fiscalité (GCP / BigQuery)

Freelance.com
Publiée le
BigQuery
Google Cloud Platform (GCP)
JIRA

1 an
400-480 €
Paris, France
Dans le cadre d’un programme stratégique de modernisation du Système d’Information, une direction Data ambitieuse renforce ses équipes pour accélérer la rationalisation des outils, maximiser l’usage des solutions leaders du marché et intensifier l’exploitation de la Data et de l’IA. Au sein d’une Data Team opérant sur une plateforme GCP , vous intégrerez le pôle Architecture & Projets Data , en charge de la modélisation et de la publication de données à forte valeur métier (usage, interaction, finance, réseau, contrat). Le projet s’inscrit dans un programme réglementaire d’envergure autour de la Loi de Finance (FacElec) . Mission Vous interviendrez sur l’ensemble du cycle de construction Data : Conception & Développement des Pipelines Conception et développement des pipelines d’ingestion Mise à jour des fichiers de paramétrage (Hydra) Développement et optimisation SQL Mise à jour des modèles de données Construction du Datamart Modélisation conceptuelle et physique Développement des transformations sous BigQuery Industrialisation et mise en production Recette Métier Participation aux ateliers Analyse et correction d’anomalies Mise à jour des tickets JIRA Ajustements SQL et pipelines Mise en Service & VSR Suivi post-MEP Correction d’incidents Stabilisation des flux
Freelance

Mission freelance
Data Engineer Senior – Azure Databricks (Python) (H/F)

HOXTON PARTNERS
Publiée le
Azure
Databricks
Python

6 mois
Paris, France
Dans le cadre d’un projet Data sous environnement Microsoft Azure, nous recherchons un Data Engineer disposant d’une expérience significative sur Azure Databricks (Python). Le consultant interviendra sur la conception, le développement et l’optimisation de traitements data au sein d’une plateforme moderne. Il participera à la mise en place de pipelines de transformation et à l’intégration des flux dans l’écosystème Azure. Les principales responsabilités incluent: Développement de notebooks Azure Databricks en Python / PySpark Conception et optimisation de pipelines de transformation Intégration avec Azure Data Factory Contribution aux sujets de gouvernance via Unity Catalog Participation aux déploiements et bonnes pratiques d’industrialisation (Terraform)
Freelance
CDI

Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort

EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis

3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
Freelance

Mission freelance
AWS Data Engineer Senior

CHOURAK CONSULTING
Publiée le
Amazon Redshift
Apache Airflow
AWS Cloud

3 mois
400-650 €
Île-de-France, France
Nous recherchons plusieurs AWS Data Engineers Seniors pour renforcer une équipe Data Platform au sein d’un acteur majeur du secteur de l’énergie . 🎯 Contexte de la mission Vous intégrerez une équipe en charge de la plateforme Data , avec des enjeux forts de scalabilité, industrialisation et fiabilité des flux de données . Les missions s’inscrivent dans un environnement cloud moderne, orienté bonnes pratiques et performance. ⚙️ Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables . Contribuer à l’évolution de la plateforme Data . Mettre en place et maintenir l’ infrastructure as code . Participer à l’industrialisation des traitements (CI/CD, containerisation). Travailler en collaboration avec les équipes Data, Produit et Architecture. Être force de proposition sur les choix techniques et les optimisations.
CDI

Offre d'emploi
Data Engineer Semarchy XDI - Nantes (F/H)

Argain Consulting Innovation
Publiée le
Informatica
Semarchy
Talend

35k-40k €
Nantes, Pays de la Loire
Attention : cette opportunité n'est pas ouverte aux Freelances Nous recherchons un/e Data Engineer pour renforcer des équipes de Data Factory. Les activités à couvrir : · Compréhension de l’activité et des besoins de vos clients, en dialogue avec la MOA · Compréhension du SI de production, en dialogue avec les équipes MOE · Modélisation du Système d’Information Décisionnel · Conception et réalisation des traitements d’alimentation des datamarts · Diagnostic des dysfonctionnements rencontrés · Maintenances correctives et évolutives · Support auprès des différents métiers · Documentation technique · Suivi des traitements Pas d’activité de reporting (Business Object ou autre outil BI). Uniquement de l’alimentation de datamarts via un ELT Les compétences recherchées : Maitrise d’un ELT du type SEMARCHY XDi ou type Talend / Informatica Connaissance d’une base de données orientée Analytique (ex : HP VERTICA) Appétence à manipuler de gros volumes de données Bonne connaissance du langage SQL Des compétences sur un outil de modélisation (ex : Power Designer) et un outil de qualification (ex : QCHP) seraient un plus
Freelance

Mission freelance
Data Engineer SAP

Mon Consultant Indépendant
Publiée le
SAP

3 mois
800-820 €
Paris, France
Contexte du Projet : Nous recherchons un Data Engineer senior pour un projet stratégique de 14 semaines, visant à développer un système d'aide à la décision de planification Supply Chain chez un acteur de la défense. Le projet implique l'intégration de données provenant de multiples ERP (notamment SAP) et la création d'un moteur de calcul pour analyser l'impact des retards sur les pièces critiques et la disponibilité des systèmes finaux. Missions Principales : Expertise en extraction de données SAP (modules MM, PP, MRP) et modélisation de données industrielles complexes. Maîtrise des tables SAP (MRP, stocks, ordres, nomenclatures) pour structurer un Data Layer robuste et pertinent. Développement de moteurs de calcul (Python, SQL ou autres) permettant d'analyser l'impact des retards sur la Supply Chain. Adaptation à un environnement multi-sites et multi-ERP hétérogène. Interaction directe avec les consultants opérations/supply et les équipes IT SAP. Contribuer à la mise en place d'un outil d'aide à la décision et de planification pour identifier et tracer les risques de rupture. Compétences Techniques Requises : Solide expertise SAP sur l'extraction et la modélisation de données (MM/PP/MRP). Maîtrise des concepts et tables liés à la planification (MRP, stocks, ordres, BOM). Expérience confirmée en développement de moteurs de calcul (Python, SQL). Familiarité avec les environnements Data Analytics. Profil Recherché : Senior, avec une expérience significative dans des projets similaires. Capacité à s'adapter et à évoluer dans un contexte industriel sensible et exigeant. Excellentes compétences en communication et en travail d'équipe. Localisation et Durée : Localisation hybride, préférentielle : Bretagne, Brest, Bordeaux. Démarrage : Janvier (sous réserve de confirmation du projet). Durée : 14 semaines.
Freelance

Mission freelance
Data Engineer ( Lille, Nantes ou Strasbourg )- (h/f)

emagine Consulting SARL
Publiée le

12 mois
380-400 €
59000, Lille, Hauts-de-France
Au sein de la Data Factory du Groupe, vous serez en charge de préparer et mettre à disposition les données. Responsabilités: Échanger avec la MOA et les utilisateurs pour analyser et spécifier les besoins Modéliser et créer des flux sur l’ETL Assurer la recette et le suivi de production Résoudre les problèmes et assurer la maintenance corrective des systèmes en production. Must Have: Votre formation supérieure (Bac+5 ou Ecole d'Ingénieur) spécialisée en data Votre expérience de 6 ans minimum sur un poste similaire Votre parfaite maîtrise d’un ETL/ELT (idéalement Semachy) et de SQL Nice to Have: Votre connaissance de Vertica sera un atout supplémentaire Votre autonomie et votre esprit d'équipe Autres Détails: Télétravail : Vous pourrez bénéficier de 1 jour de télétravail par semaine après 3 mois d'intégration.
Freelance

Mission freelance
Data Engineer Senior

Groupe Aptenia
Publiée le
Informatica PowerCenter
Java
Oracle

2 ans
500-520 €
Bruxelles, Bruxelles-Capitale, Belgique
🔍 Nous recherchons un Ingénieur Data Senior pour renforcer une équipe en charge de la conception et de l’optimisation de pipelines ETL (Informatica PowerCenter) sur des bases de données massives (20 To+ : Oracle/SybaseIQ). Vous participerez également au développement d’applications Java (Springboot, Maven) et à l’amélioration des processus de release et de performance. 🎯 Vos missions principales ✅ Concevoir et optimiser des pipelines ETL complexes (Informatica PowerCenter). ✅ Développer des applications Java (Springboot, Maven) pour des solutions data robustes. ✅ Collaborer avec les analystes métiers pour traduire les besoins en solutions techniques. ✅ Gérer les releases : Sécuriser les changements, appliquer les bonnes pratiques de codage. ✅ Optimiser les performances : Traitement par lots, planification, automatisation. ✅ Résoudre des problèmes avec une approche pragmatique et proactive. ✅ Travailler en équipe pluriculturelle (environnement anglophone, secteur bancaire/assurance un plus).
315 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous