Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load) à Lille

Votre recherche renvoie 12 résultats.
Freelance

Mission freelance
Consultant data ODI / Python

ESENCA
Publiée le
ETL (Extract-transform-load)
ODI Oracle Data Integrator
Python

1 an
Lille, Hauts-de-France
Localisation : Région lilloise Disponibilité : ASAP Contexte : Projet stratégique de transformation et modernisation Data Objectif de la mission Dans le cadre d’un programme de modernisation de la plateforme data, la mission consiste à analyser, documenter et faire évoluer des flux de données existants, avec une perspective de transformation vers des solutions plus modernes basées sur Python. Missions principales Réaliser un inventaire complet des flux de données existants (ODI) Analyser les dépendances, les logiques métiers et les enjeux associés Produire une documentation détaillée des flux (rétro-documentation) Améliorer la lisibilité, la maintenabilité et la gouvernance des traitements Contribuer à la transformation et à la migration des flux vers une nouvelle plateforme Participer à la modernisation de la stack data (orientation Python) Collaborer étroitement avec les équipes techniques et data Environnement technique Oracle Data Integrator (ODI) – expertise impérative Python (manipulation de données, automatisation, ETL) Environnements Data / ETL / flux batch
Freelance
CDI

Offre d'emploi
Consultant Stambia / Semarchy xDI

ICSIS
Publiée le
ETL (Extract-transform-load)
JIRA
Python

1 an
35k-45k €
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Analyse des besoins - Conception des flux complexes avec Stambia / Semarchy xDI - Développement et configuration des flux en suivant les bonnes pratiques - Tests des développements - Documentation (spécifications techniques) - Maintenance des flux de données Mission basée sur la métropole lilloise avec télétravail hybride Compétences attendues : - Compétences approfondies en Stambia / Semarchy xDI - Solides compétences en SQL - Approche ETL / ELT - Scripting (Python, Shell, Beanshell ...) - JIRA - Architecture d'échange de données (batch, API REST ...) - Communication, travail en équipe
CDI

Offre d'emploi
Senior Data Engineer F/H

Atecna
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)

Lille, Hauts-de-France
Des missions data à fort impact, une communauté en pleine expansion. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Data, animée par Steve et une équipe d'experts passionné·es en pleine structuration. Une équipe qui capitalise sur ses expériences projets et partage activement ses bonnes pratiques et sa veille sur l'écosystème data. Tu es en mission chez nos clients, mais tu contribues aussi à quelque chose de plus grand : faire grandir l'expertise Data d'Atecna de l'intérieur. ⚡ Ton impact au quotidien Grâce à toi, nos clients cessent de subir leurs données et commencent à en faire un vrai levier de décision. Tu conçois et industrialises des pipelines data robustes (ETL/ELT, batch, streaming) Tu orchestres les flux avec les bons outils (Airflow, dbt…) dans des environnements cloud (GCP en priorité) Tu modélises et optimises des bases de données pour des usages métiers concrets Tu contribues à la structuration de la communauté Data Atecna : pratiques, standards, montée en compétences Bonus : tu as déjà monté une plateforme data from scratch ou tu as une appétence pour le mentorat ? Ce serait un vrai atout pour nous.
Freelance

Mission freelance
Data Engineer - Lille

ICSIS
Publiée le
Apache Kafka
CI/CD
DBT

2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Freelance

Mission freelance
Data engineer GCP

ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)

1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
CDI

Offre d'emploi
Ingénieur Développement Flux H/F

VIVERIS
Publiée le

35k-50k €
Lille, Hauts-de-France
Dans le cadre de notre équipe Ingénierie Data, nous recherchons un Ingénieur Développement Flux ETL H/F pour intervenir sur la conception, le développement et la maintenance d'outils techniques. Responsabilités : - Concevoir, développer et maintenir des outils back-end et des scripts techniques; - Optimiser et fiabiliser les traitements existants; - Participer à l'analyse des besoins fonctionnels et techniques; - Produire et maintenir la documentation associée.
CDI

Offre d'emploi
Data engineer (H/F)

Amiltone
Publiée le

35k-40k €
Lille, Hauts-de-France
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Freelance
CDI

Offre d'emploi
Data Engineer

TEOLIA CONSULTING
Publiée le
Google Cloud Platform (GCP)
PL/SQL

12 mois
45k-50k €
400-430 €
Lille, Hauts-de-France
Dans le cadre de sa transformation digitale, notre client, grand acteur du retail, cherche à renforcer son équipe produit Data pour faire évoluer une plateforme stratégique de gestion et d’optimisation des approvisionnements. Cette plateforme traite des volumétries importantes de données et joue un rôle clé dans la prise de décision métier . 🎯 Vos missions Intégré(e) à une équipe produit agile, vous intervenez sur : 🔧 Data Engineering (GCP) Conception et développement de pipelines ETL/ELT Traitement et intégration de données (APIs, fichiers, bases) Optimisation des performances sur BigQuery Orchestration des flux (Airflow / Composer) 🛠️ Run & support Analyse et résolution d’incidents (N2/N3) Écriture de scripts Bash pour automatisation Requêtes SQL complexes pour diagnostic et exploitation 📊 Data & monitoring Garantie de la qualité et cohérence des données Mise en place de monitoring et alerting (Grafana, outils GCP) Création de dashboards de suivi ☁️ Infrastructure & industrialisation Participation à l’IaC (Terraform) Contribution à la CI/CD (GitLab CI) Amélioration continue des pipelines et process 🧰 Environnement technique Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer) Data : SQL avancé, ETL/ELT Scripting : Bash CI/CD & IaC : GitLab CI, Terraform Monitoring : Grafana, outils GCP Bases de données : BigQuery, Oracle OS : Linux
CDI
CDD
Freelance

Offre d'emploi
Développeur Flux Stambia / Semarchy xDI / Kafka / Springboot / MongoDB - H/F - Métropole Lilloise

HELPLINE
Publiée le
Apache Kafka
Mongodb
Semarchy

3 ans
38k-45k €
400-550 €
Lille, Hauts-de-France
Description du poste Dans le cadre du renforcement de nos activités Data Engineering pour un leader international basé dans le Nord, nous recherchons un Développeur flux Stambia / Semarchy xDI confirmé . Kafka, Springboot & MongoDB appréciés. Ce que nous allons accomplir ensemble : Au sein d'une équipe expérimentée, vous interviendrez sur des enjeux variés de BUILD (conception, création) et de RUN (exploitation, optimisation) sur des flux de données opérationnels stratégiques. Vos missions au quotidien : Analyse & Conception : Analyser les besoins d'intégration de données et concevoir des flux complexes via Stambia / Semarchy xDI. Développement : Développer les flux en appliquant les meilleures pratiques et produire des scripts (Python, Shell, etc.) pour personnaliser les traitements. Qualité & Tests : Garantir la robustesse et la non-régression des développements (tests de performance, fiabilité). Documentation : Réaliser les spécifications techniques et partager vos connaissances via Confluence. Maintenance & Run : Assurer le monitoring, le support et participer aux astreintes pour garantir la disponibilité des flux en production. Qualifications Ce poste est fait pour vous si : Vous justifiez d'une expérience confirmée (3 à 5 ans) en développement de flux avec Stambia / Semarchy xDI . Vous maîtrisez les concepts ETL/ELT, le langage SQL et la modélisation de données. Vous avez une expérience pratique en scripting (Python, Beanshell, Shell ou équivalent). Vous êtes familier avec les environnements collaboratifs : Git/Gitlab, CI/CD, Jira . Vous avez une bonne connaissance des architectures d'échange (API REST, Batch, Streaming/Kafka). Votre sens du service, votre capacité à travailler en équipe et votre communication claire sont vos atouts majeurs.
Freelance

Mission freelance
Data engineer GCP

NEOLYNK
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Looker Studio

3 ans
300-450 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Lille 2 jours de TT par semaine démarrage asap mission longue 3 ans
Freelance

Mission freelance
Responsable d’Applications Supply Chain

ESENCA
Publiée le
Google Cloud Platform (GCP)
Java
SQL

1 an
Lille, Hauts-de-France
Contexte de la mission Dans un environnement international, nous recherchons un Responsable d’Applications expérimenté afin d’assurer la maintenance et l’évolution de plusieurs produits digitaux liés aux activités Transport et Entrepôts au sein d’un périmètre Supply Chain. Vous interviendrez au sein d’une équipe Build & Run en collaboration étroite avec les utilisateurs métiers, les équipes IT (développement, architecture, sécurité, infrastructure) ainsi que différents partenaires externes. L’objectif principal est de garantir la disponibilité, la performance et la qualité de service des applications tout en accompagnant leur évolution. Vos missions Assurer le maintien en conditions opérationnelles (MCO) des applications du périmètre. Suivre et piloter l’activité via des indicateurs de performance , et mettre en place des plans d’actions préventifs et correctifs. Gérer les demandes d’évolution et de service dans le respect des engagements de service (SLA). Collaborer avec les équipes IT (Product Owner, développeurs, autres responsables applicatifs). Mettre en production les nouvelles versions et participer aux projets de sécurisation du SI. Garantir la qualité de service et la satisfaction des utilisateurs . Maîtriser le paramétrage, les flux applicatifs et les plans de production des solutions maintenues. Maintenir une documentation technique et fonctionnelle à jour . Proposer et mettre en œuvre des améliorations continues pour optimiser les solutions et les processus. Compétences techniques requises Talend et SQL (niveau confirmé – impératif). Connaissance des métiers Transport et Entrepôts (confirmé – impératif). Environnements data et cloud : GCP, BigQuery, Kafka, DataDog, Ordonnanceur AWA (confirmé – important). Connaissances en Java et Python (niveau junior – apprécié).
Freelance

Mission freelance
Développeur expert Java / SQL H/F

Insitoo Freelances
Publiée le
Apache Kafka
Entreprise Java Bean (EJB)
HFSQL

2 ans
216-512 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur expert Java / SQL H/F à Lille, France. Contexte : L’équipe digitale DXD Performance Finance recherche un développeur expert afin de réaliser des développements sur un produit déjà existant. Il faut donc que le développeur s’approprie les développements mis en place d’un produit et apporte des évolutions/développements complémentaires sur cette couche déjà existante. Important pour nos comptables, ce produit effectue du contrôle de données pour du rapprochement bancaire automatique; là où avant tout était manuel. Les missions attendues par le Développeur expert Java / SQL H/F : Développement de flux de données ● Développer et maintenir des pipelines d’ingestion et de transformation de données ● Implémenter des flux entre systèmes : ○ bases de données ○ systèmes de fichiers (SFTP) ○ plateformes cloud (GCP) ○ bus d’événements Architecture event-driven ● Concevoir et maintenir des flux événementiels via Apache Kafka ● Produire et consommer des événements structurés (JSON Schema) ● Garantir la fiabilité et la traçabilité des messages Gestion des données ● Concevoir et maintenir des modèles de données sous PostgreSQL ● Gérer les migrations via Flyway ● Assurer la cohérence des schémas entre environnements Change Data Capture ● Mettre en place des flux de type CDC via Debezium ● Transformer les changements de base en événements exploitables Intégration cloud & data platform ● Travailler avec les services Google Cloud, notamment BigQuery via Google Cloud Platform ● Participer aux traitements batch et à l’ETL de données Sécurité & configuration ● Gérer les secrets applicatifs ● Sécuriser les accès aux ressources critiques Architecture technique La plateforme repose sur : ● Micro-composants Spring Boot ● Traitements batch et temps réel ● Intégration via bus d’événements ● Communication inter-systèmes asynchrone

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

12 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lille, Hauts-de-France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous