Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load) à Lille
Votre recherche renvoie 12 résultats.
Mission freelance
Data Engineer - Lille
ICSIS
Publiée le
Apache Kafka
CI/CD
DBT
2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Mission freelance
Data engineer GCP
ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)
1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
Offre d'emploi
Consultant Stambia / Semarchy xDI
ICSIS
Publiée le
ETL (Extract-transform-load)
JIRA
Python
1 an
35k-45k €
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Analyse des besoins - Conception des flux complexes avec Stambia / Semarchy xDI - Développement et configuration des flux en suivant les bonnes pratiques - Tests des développements - Documentation (spécifications techniques) - Maintenance des flux de données Mission basée sur la métropole lilloise avec télétravail hybride Compétences attendues : - Compétences approfondies en Stambia / Semarchy xDI - Solides compétences en SQL - Approche ETL / ELT - Scripting (Python, Shell, Beanshell ...) - JIRA - Architecture d'échange de données (batch, API REST ...) - Communication, travail en équipe
Mission freelance
Data Engineer (Projet de Migration MGTS)
HAYS France
Publiée le
Python
Snowflake
Stambia
3 ans
100-450 £GB
Lille, Hauts-de-France
Mission principale : Dans le cadre du build d’un projet de migration technique pour une de nos BUs du groupe (MGTS), nous recherchons un Data Engineer. Il travaillera principalement avec Elodie Madoux, cheffe de projet Data. Il devra être assez autonome, même si nos Tech Lead seront en supervision si besoin. Nous recherchons donc un profil ayant déjà quelques années d’expérience. Compétences clés recherchéesIntégration & ETL Lecture, compréhension et manipulation de flux de données Maîtrise opérationnelle de Talend Maîtrise de la solution Stambia / Semarchy Langages Excellente maîtrise du SQL Niveau intermédiaire en Python Environnement Data Bonne connaissance de Snowflake Visualisation (atout) Maîtrise de Tableau appréciée
Offre d'emploi
Data engineer (H/F)
Amiltone
Publiée le
35k-40k €
Lille, Hauts-de-France
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Mission freelance
Responsable d’Applications Supply Chain
ESENCA
Publiée le
Google Cloud Platform (GCP)
Java
SQL
1 an
Lille, Hauts-de-France
Contexte de la mission Dans un environnement international, nous recherchons un Responsable d’Applications expérimenté afin d’assurer la maintenance et l’évolution de plusieurs produits digitaux liés aux activités Transport et Entrepôts au sein d’un périmètre Supply Chain. Vous interviendrez au sein d’une équipe Build & Run en collaboration étroite avec les utilisateurs métiers, les équipes IT (développement, architecture, sécurité, infrastructure) ainsi que différents partenaires externes. L’objectif principal est de garantir la disponibilité, la performance et la qualité de service des applications tout en accompagnant leur évolution. Vos missions Assurer le maintien en conditions opérationnelles (MCO) des applications du périmètre. Suivre et piloter l’activité via des indicateurs de performance , et mettre en place des plans d’actions préventifs et correctifs. Gérer les demandes d’évolution et de service dans le respect des engagements de service (SLA). Collaborer avec les équipes IT (Product Owner, développeurs, autres responsables applicatifs). Mettre en production les nouvelles versions et participer aux projets de sécurisation du SI. Garantir la qualité de service et la satisfaction des utilisateurs . Maîtriser le paramétrage, les flux applicatifs et les plans de production des solutions maintenues. Maintenir une documentation technique et fonctionnelle à jour . Proposer et mettre en œuvre des améliorations continues pour optimiser les solutions et les processus. Compétences techniques requises Talend et SQL (niveau confirmé – impératif). Connaissance des métiers Transport et Entrepôts (confirmé – impératif). Environnements data et cloud : GCP, BigQuery, Kafka, DataDog, Ordonnanceur AWA (confirmé – important). Connaissances en Java et Python (niveau junior – apprécié).
Mission freelance
Responsable d’Applications (Expert) – Supply Chain / Transport & Entrepôt
HAYS France
Publiée le
BigQuery
Google Cloud Platform (GCP)
Java
3 ans
100-480 £GB
Lille, Hauts-de-France
Nous sommes à la recherche d’un profil type Responsable d’applications expérimenté pour renforcer l’équipe déjà en place sur le périmètre de la Supply Chain pour les achats internationaux Dans le cadre de cette mission, il travaillera dans une équipe « Build&Run » en lien étroit avec nos utilisateurs en France et à l'étranger, les équipes d'organisation métier, les administrateurs métier, les experts IT (infrastructure & production, sécurité, architecte, ) et nos partenaires externes (partenaires logistiques, éditeurs de solution SaaS,...) La durée de cette mission est à minima d’un an et se déroule sur le site de Ronchin: Terradeo Sur les produits digitaux qui lui seront confiées, la mission proposée sera de : - Assurer le maintien en conditions opérationnelles. La satisfaction utilisateur est primordiale. - Suivre et piloter l’activité : partage d’indicateurs, plan d’actions préventives, correctives et gestion des demandes d’évolutions et de service, respect des SLAs. - Travailler en collaboration avec les autres membres de la team IT et plus particulièrement le Product Owner, les développeurs et les Responsables d’applications sur d’autres périmètre que le sien. - Proposer et mettre en place des solutions afin d’améliorer la qualité de service rendue aux utilisateurs - Mettre en production des nouvelles versions et ou des projets de sécurisation du SI avec des enjeux de disponibilité et de performance. - Maîtriser le paramétrage et les flux des solutions à maintenir et leur plan de production. - Être en proximité des collaborateurs métiers qu’il dessert. Voir fe fichier en pièce jointe pour connaitre les compétences exactes recherchées.
Mission freelance
DATA INGENIEUR STAMBIA DBT SNOWFLAKE
HAYS France
Publiée le
DBT
Semarchy
Snowflake
3 ans
100-400 £GB
Lille, Hauts-de-France
Missions principales Le/la Data Engineer interviendra sur un périmètre large comprenant notamment : 🔹 Ingénierie de données Conception, développement et optimisation de pipelines de données. Intégration et transformation de données via Stambia et DBT . Modélisation et alimentation d’entrepôts de données dans Snowflake . Mise en place de bonnes pratiques de développement (versioning, tests, CI/CD). 🔹 Industrialisation & performance Maintenance, optimisation et monitoring des jobs ETL/ELT. Amélioration continue des performances Snowflake et des modèles DBT. Renforcement de la qualité, de la fiabilité et de la documentation des flux. 🔹 Collaboration & expertise Travail en étroite collaboration avec les équipes Data, Finance et Supply. Analyse des besoins métiers et traduction en solutions techniques. Participation à la roadmap Data (évolutions, migrations, outils). 💼 Compétences techniques recherchéesCompétences indispensables Stambia (développement de mappings, process, intégration). DBT (modèles, tests, documentation, sources, exposures). Snowflake (modélisation, optimisation, SQL avancé). Maîtrise des concepts ETL/ELT, data modelling, gestion de la qualité. Compétences appréciées (nice-to-have) Tableau Software (lecture + compréhension des besoins côté viz). Streamlit (petites apps internes pour exposer des données). Connaissance de la Data Vault ou d’architectures modernes DataOps. Sensibilité aux environnements agiles. 👤 Profil recherché 3 à 5 ans d’expérience minimum en tant que Data Engineer. Capacité à être rapidement opérationnel·le sur des sujets variés. Bonne communication et autonomie. Volonté d’intervenir sur des problématiques Finance & Supply.
Mission freelance
Data Engineer Azure / IA
Sapiens Group
Publiée le
Azure
Azure DevOps
Databricks
12 mois
400-450 €
Lille, Hauts-de-France
Ingénierie Data Concevoir et développer des pipelines de données (ETL / ELT) . Collecter, transformer et intégrer des données provenant de différentes sources (API, bases de données, fichiers, streaming). Mettre en place et optimiser des flux de données robustes et scalables . Garantir la qualité, la fiabilité et la traçabilité des données . Concevoir et maintenir des modèles de données adaptés aux usages analytiques. Plateforme et outils Data Développer des solutions sur des plateformes Big Data et Cloud (ex : Databricks). Automatiser les workflows et déploiements via CI/CD (Azure DevOps) . Optimiser les performances des traitements Python et SQL . Participer à la mise à disposition des données pour les outils de visualisation et de reporting (Power BI) . Intelligence Artificielle appliquée à la Data Utiliser des outils d’IA pour assister le développement (génération et optimisation de code). Mettre en place des processus automatisés d’analyse et de transformation de données basés sur l’IA. Contribuer à l’intégration de modèles d’IA ou de Machine Learning dans les pipelines de données. Utiliser l’IA pour la documentation automatique, la détection d’anomalies et l’analyse exploratoire des données . Collaboration et méthodologie Travailler en méthodologie Agile / Scrum . Collaborer avec les équipes Data, BI, Data Science et métiers . Participer aux rituels Agile (daily, sprint planning, rétrospective). Contribuer aux bonnes pratiques de gouvernance et de gestion des données .
Offre d'emploi
Data Engineer Flux H/F
VIVERIS
Publiée le
35k-45k €
Lille, Hauts-de-France
Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises bancaires. Dans ce cadre, nous recherchons notre Data Engineer qui contribuera à un programme important d'évolution de la plateforme Data. Vos missions et responsabilités : - Analyser les besoins métiers et les traduire en solutions BI pertinentes et durables ; - Modéliser les données en cohérence avec les objectifs fonctionnels et les bonnes pratiques décisionnelles ; - Créer et maintenir les flux de données via des outils ETL, en assurant leur qualité, robustesse et performance ; - Participer à la recette et au suivi de production des chaînes décisionnelles, en lien étroit avec les utilisateurs ; - Assurer un rôle transverse sur les projets décisionnels : échange avec les MOA, rédaction de spécifications fonctionnelles, accompagnement des utilisateurs.
Offre d'emploi
Senior Data Engineer (5+ ans d'exp)
WINSIDE Technology
Publiée le
Azure
Databricks
3 ans
40k-60k €
100-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer Senior pour une grande entreprise internationale sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience professionnelle en tant que Data Engineer. tu as travaillé au moins 3 ans sur le cloud Azure. tu maîtrises Databricks, Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. tu es expert.e dans la conception et optimisation d'architectures data tu maîtrises la modélisation de données (schéma analytique, SCD, faits et dimensions). tu as déjà travaillé sur des outils de développement assistés par l'IA. tu as déjà implémenté des Data Quality. Stack supplémentaire démandée : Python, SQL, Git. Objectif principal du poste : Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Missions : Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards. Démarrage : mars 2026. TT: 2 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Offre d'emploi
CloudOps AWS F/H
METSYS
Publiée le
Amazon DynamoDB
Amazon Elastic Compute Cloud (EC2)
Elasticsearch
50k-55k €
Lille, Hauts-de-France
SOLIMOES est une filiale de la société METSYS spécialisée sur l'intégration et le déploiement de solutions autour d'AWS. Nous recherchons pour un de nos clients grands-comptes de très forte renommée un Consultant CloudOps AWS pour une mission dont le but est double : garantir l'excellence technique sur l'offre AWS de serveurs/BDD de notre Client et être une ressource N3 pour leur solution Talend on Premise. Plus précisément : Expertise Plateforme Data (Serveurs & BDD) Faire évoluer l'offre de compute basée sur Amazon EC2 et automatiser le déploiement, la gestion et la configuration de leurs bases de données ; Gestion des Clusters BDD : Assurer le déploiement, le MCO et l'optimisation de leurs clusters Druid et de leurs instances Elasticsearch (ELS) ; Services Managés : Administrer et optimiser les instances Amazon Aurora (RDS) et les tables DynamoDB. Mise à Disposition : Mettre à disposition de nouvelles ressources (BDD, Serveurs) en self-service pour les projets Data (Data Engineers, Scientists, Analysts) ; MCO & Support N3 : Assurer le Maintien en Condition Opérationnelle (MCO) et apporter un support de niveau 3 expert sur les problématiques de performance des bases (Aurora, DynamoDB) et d'infrastructure serveur (EC2, systèmes d'exploitation) ; Sécurité & Observabilité : Garantir la conformité de la sécurité des serveurs et des clusters (patching, configuration OS) et ajouter/maintenir les éléments d'observabilité critiques (Monitoring, Alerting) pour toutes leurs bases de données. Leadership Technique Talend Expertise Talend TIS on Premise Agir comme Tech Lead Talend : Être le référent technique et le garant des bonnes pratiques pour l'ensemble des équipes utilisant ou migrant depuis Talend ; Être capable de faire des audits, des revues de code et des recommandations pour garantir la qualité, la performance des développements Talend Conduite du changement ; Mener l'intégration des composants Talend (Jobs Servers, TAC) dans l'environnement DevOps cible (CI/CD, Monitoring, Conteneurisation, Orchestration Airflow).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
12 résultats
Contrats
Lieu
1
1
Lille, Hauts-de-France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois