Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 307 résultats.
Mission freelance
Data Engineer - LYON
TEOLIA CONSULTING
Publiée le
BI
Data Lake
12 mois
400-480 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour l’un de nos clients un Data Engineer pour intervenir sur un projet stratégique de référentiel de données financières . Le projet vise à centraliser, fiabiliser et gouverner l’ensemble des données liées aux instruments financiers , au sein d’un socle de Master Data Management (MDM) . Vous intégrerez une squad Data pluridisciplinaire composée de développeurs Data, d’un Architecte technique, d’un Business Analyst et d’un Product Owner. Mission : Conception & développement Data : Conception et développement de pipelines de données robustes et évolutifs Implémentation du modèle Bronze / Silver / Gold Intégration et transformation de données multi-sources Orchestration & ingestion : Développement et paramétrage de workflows Apache NiFi Collecte et normalisation de données issues de : fichiers CSV / XML API REST Industrialisation et sécurisation des flux Modélisation & qualité des données : Participation à la modélisation du socle de données Construction de vues consolidées MDM Mise en place de contrôles de qualité : complétude unicité cohérence traçabilité et versioning Performance, sécurité & bonnes pratiques : Suivi et optimisation des performances des pipelines Mise en œuvre des standards de sécurité des données (authentification, chiffrement, gestion des accès) Documentation technique et partage de connaissances au sein de la squad
Mission freelance
Data Engineer
CAT-AMANIA
Publiée le
Data analysis
Large Language Model (LLM)
OCR (Optical Character Recognition)
3 ans
Lyon, Auvergne-Rhône-Alpes
La l'équipe RAD-LAD (Reconnaissance Automatique de Documents et Lecture Automatique de Documents) a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. L'équipe souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment). * Tester différents LLM peu importe le provider (aws, gcp, azure) * Préparer les jeux de données * Définir les conditions de succès et d’échec et paramétrer les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendus * Faire des développements sur les produits de la squaq (Java / Python)
Offre d'emploi
Data Engineer H/F
OBJECTWARE
Publiée le
SQL
1 an
Nantes, Pays de la Loire
Nous recherchons un data engineer H/F en charge de l’alimentation des datamarts. Missions : Compréhension de l’activité et des besoins en dialogue avec la MOA Compréhension du SI de production, en dialogue avec les équipes MOE Modélisation du Système d’Information Décisionnel Conception et réalisation des traitements d’alimentation des datamarts Diagnostic des dysfonctionnements rencontrés Maintenances correctives et évolutives Support auprès des différents métiers Documentation technique Suivi des traitements
Mission freelance
Data Engineer Talend (habilitation requise)
Signe +
Publiée le
Talend
12 mois
400-610 €
Paris, France
Contexte Dans le cadre du développement du DataLab, le Data Office souhaite renforcer ses équipes afin d’accélérer les projets BI, Data Analytics et Data Management et soutenir les initiatives de valorisation des données métiers. Besoin consultant Talend pour T… Objectifs de la mission Concevoir et développer des pipelines de données performants et évolutifs Participer à l’industrialisation et à l’optimisation des flux data Contribuer à la qualité, la fiabilité et la valorisation des données Responsabilités principales Concevoir, développer et optimiser des flux de données sous Talend Collaborer avec les équipes métiers, Data Analysts et Data Architects pour traduire les besoins fonctionnels en solutions techniques Garantir la qualité et la performance des traitements de données Mettre en place des processus de validation, nettoyage et fiabilisation des données Participer aux revues de code et au partage de compétences avec l’équipe Data Engineering Proposer des améliorations continues des outils, méthodes et processus Compétences requises Maîtrise de Talend (développement de pipelines, intégration de données) Bonne compréhension des architectures Data et des bonnes pratiques de traitement des données Expérience en collaboration avec équipes data et métiers Sens de la qualité de données, performance et industrialisation des flux Contraintes spécifiques Mission basée à Vélizy avec déplacements ponctuels Nationalité française requise (accès site)
Offre d'emploi
DATA ENGINEER SNOWFLAKE / DATABRICKS
UCASE CONSULTING
Publiée le
Databricks
Python
Snowflake
6 mois
40k-45k €
400-550 €
Paris, France
Contexte Dans le cadre du renforcement de son équipe data, notre client recherche un Data Engineer très technique , passionné par les technologies data modernes. Focus 100 % technique , avec un fort esprit geek / builder . Missions principales En tant que Data Engineer, tu interviendras sur des projets data à forte valeur technique : Concevoir, développer et maintenir des pipelines de données robustes et performants Travailler sur des plateformes Snowflake et/ou Databricks Développer des traitements data en Python (niveau avancé attendu) Optimiser et écrire des requêtes SQL complexes Participer aux choix d’architecture et aux bonnes pratiques data Garantir la qualité, la fiabilité et la performance des flux de données Collaborer avec des profils techniques au sein de l’équipe data Profil recherché Nous recherchons avant tout un passionné de data et de technologie , avec une forte appétence pour les environnements techniques exigeants. Compétences techniques indispensables : Très bon niveau en Python (clean code, performance, bonnes pratiques) Excellent niveau en SQL Expérience significative sur Snowflake et/ou Databricks Solide culture Data Engineering À l’aise avec les environnements cloud et les architectures data modernes Bon niveau d'anglais Soft skills : Profil geek , curieux et passionné par la data Forte autonomie technique Goût pour le code bien fait et les défis techniques Capacité à échanger avec des équipes techniques exigeantes
Mission freelance
DATA ENGINEER
Codezys
Publiée le
Azure
BigQuery
Business Intelligence
12 mois
Hauts-de-Seine, France
Localisation :92 Démarrage : ASAP Jours obligatoires sur site : 3 jours/semaine Expérience : 5 ans minimum TJM: 400€ Data Engineer domaine Recyclage & Valorisation (F-H) Pour atteindre l'objectif stratégique de transformer ses données en un véritable actif, on réorganise ses services en créant une Direction DATA et FLUX rattachée au DSI du Groupe. Au sein de cette nouvelle direction, le/la Data Engineer domaine Recyclage & Valorisation aura en responsabilité l’infrastructure Data servant aux projets BI pour les métiers du Recyclage et de la Valorisation , conformément au niveau de service et de sécurité attendu. Il/ Elle a également la charge du maintien en condition opérationnelle de la Data Plateforme existante et de son évolution. MISSIONS • Est en charge de la mise en œuvre, du run et de l’évolution de la plateforme Data : o Intègre de nouveaux flux de données o S’assure du bon déroulement des batchs d’intégration des données o S’assure de l’intégrité et des performances de la plateforme Data o Veille à maintenir la plateforme Data « up to date » en mettant à jour ses composants et en la faisant évoluer en adéquation avec les dernières avancées technologiques • Pour être efficace, le/la Data Engineer doit avoir une connaissance transverse des flux de données qui transitent dans la plateforme data • Collabore avec les Data Analysts / Scientists pour s’assurer de la bonne utilisation des données qui sont exposées via la plateforme Data o Gère la mise à disposition et les droits d’accès à la donnée o S’assure des interactions entre les consommateurs des données et la data plateforme dans un soucis de rationalisation et de performance o Propose des améliorations techniques (indexation, datamart, pré calcul de kpis…) • Participe aux travaux d’amélioration continue de la qualité des données. • Assure le niveau de support N 3 sur la fraîcheur, l’intégrité et la mise à disposition des données • Est référent technique du socle Data • Interagit avec le département data gouvernance de la direction pour aligner les modèles de données avec la stratégie data des métiers • Travaille en étroite collaboration avec les data managers dans les BUs en charge de la définition et de la qualité des objets data pris en charge • Participe à la road map de mise en qualité des données lancées par les data managers
Offre d'emploi
Tech Lead Data Engineer - Databricks
VISIAN
Publiée le
AWS Cloud
Databricks
PostgreSQL
1 an
40k-70k €
400-700 €
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Mission freelance
Data engineer
CAT-AMANIA
Publiée le
CI/CD
Databricks
PySpark
1 an
100-450 €
Lille, Hauts-de-France
la data est au cœur de notre stratégie, elle guide chaque décision, de la conception du produit à l'expérience client. Notre équipe Managed tools au coeur de la Data Factory est une brique essentielle de cette mission. Organisée autour des outils de compute, orchestration et expostion, l'équipe Managed tools est chargée de mettre à disposition la stack data pour l'ensemble du groupe Decathlon et d'en assurer sa robustesse et scalabilité. Au sein de la squad Compute nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme.
Offre d'emploi
Data Engineer confirmé H/F
SMARTPOINT
Publiée le
.NET
Azure
Microsoft Power BI
12 mois
50k-60k €
Île-de-France, France
Développement et optimisation de pipelines d’ingestion multi‑sources (API, fichiers, bases, cloud). Mise en place et maintenance des pipelines CI/CD , automatisations et gestion des artefacts. Développement d’outils et scripts internes (.NET, PowerShell, Python) et contribution au framework d’alimentation. Modélisation et optimisation sur Snowflake , SQL Server et Azure SQL. Création de modèles Power BI (DAX, M) et support technique niveau 3. Monitoring des flux , revue de code, analyse d’incidents critiques et la gestion des modèles de sécurité. Vous jouerez un rôle de référent technique auprès des développeurs et des métiers, avec une forte exigence en cybersécurité, documentation, qualité et alignement sur les standards de la plateforme.
Mission freelance
Senior Data Engineer – Data Platform Enabler
Gentis Recruitment SAS
Publiée le
Apache Spark
AWS Cloud
DevOps
12 mois
Paris, France
Contexte Dans le cadre du renforcement de sa Data Platform, un acteur majeur de la gestion d’actifs quantitatifs recherche un Senior Data Engineer très opérationnel pour accompagner et faire monter en compétence une communauté de plus de 50 data engineers et data scientists. Le rôle est central : interface entre les feature teams et les équipes plateforme, avec une forte dimension technique et stratégique. MissionsSupport technique hands-on Accompagnement direct des équipes sur leurs problématiques data Développement et optimisation de pipelines end-to-end Identification et réduction de la dette technique Mise en place d’outillage (tests, automation, AI agents…) Amélioration de la Developer Experience Data Platform Evangelism Promotion et adoption quotidienne de la plateforme Partage des best practices et des standards Veille technologique et diffusion interne Animation de communauté de pratique Upskilling & Transmission Évaluation du niveau des équipes Mise en place de formations, workshops, contenus techniques Création de documentation et supports techniques Feedback & Amélioration continue Collecte des besoins utilisateurs Collaboration étroite avec les équipes plateforme Validation technique des assets produits Stack TechniqueCloud AWS (S3, EMR, Glue, Athena, Lake Formation) CloudFormation / CDK Lambda, Fargate Data Engineering Python avancé Spark / Pandas Airflow Parquet Apache Iceberg DevOps CI/CD Jenkins SonarQube Conda Infra-as-Code (idéalement CDK en Python)
Offre d'emploi
Data engineer Dataiku
ANDEMA
Publiée le
Dataiku
SAS
1 an
45k-60k €
400-550 €
Île-de-France, France
Contexte : Accompagnement d’un projet stratégique de migration SAS vers Dataiku , dans le cadre du décommissionnement de SAS et de la transition vers le cloud. Missions : Piloter la conduite du changement et l’adoption de Dataiku par les équipes métiers et IT. Valoriser Dataiku face à SAS : ateliers, démonstrations et argumentaires orientés valeur métier. Administrer la plateforme : licences, utilisateurs, monitoring, mises à jour. Développer des plugins et automatisations : conversion SAS → Parquet, exports, traitements conditionnels. Définir et diffuser les bonnes pratiques sur stockage, moteurs de calcul et fonctionnalités Dataiku. Coacher les équipes SAS pour une adoption progressive et sereine . localisation : ile de france 2jours de TT/semaine
Mission freelance
[LFR] Data Engineer Dataiku Sénior à Guyancourt - 1296
ISUPPLIER
Publiée le
10 mois
300-460 €
Guyancourt, Île-de-France
Une équipe interne en charge des plateformes Data recherche un Data engineering afin de renforcer ses effectifs . Expérience : Minimum 5 ans d’expérience dans les métiers de la data : data engineering, data analytics, dataOps ou équivalent. Expérience confirmée dans des environnements de production et gestion de sujets critiques. Langages & manipulation de données: Python : maîtrise des bonnes pratiques (structuration, optimisation, gestion d’erreurs). SQL : excellent niveau, capacité à gérer de gros volumes et à optimiser les requêtes. Orchestration & outils Data: Idéalement : Dataiku (recipes, scénarios, automatisation, gestion des environnements). Alternativement : expérience sur d’autres plateformes ETL/ELT industrielles (Talend, Airflow, Informatica, Azure Data Factory, etc.), démontrant une forte capacité d’adaptation. serait idéalement à l’aise avec : Gestion des mises en production : versioning, promotion d'environnements, validations. Gestion d’incidents : analyse, diagnostic, résolution ou contournement, communication avec les équipes concernées. Supervision de pipelines : monitoring, optimisation, gestion des batchs. Pratiques DevOps/DataOps : logs, surveillance, documentation, robustesse et fiabilité du code. • Les astreintes (HNO, etc…) : oui • La possibilité de renouvellement : Oui • Type de prestation (Client / Hybrid / Remote) : Client • Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jours / semaine
Offre d'emploi
Data Engineer H/F
OBJECTWARE
Publiée le
Microsoft Power BI
Python
SQL
1 an
Tours, Centre-Val de Loire
Missions : Animation du processus (Coordination des correspondants, Suivi des données d’entrée nécessaires à l’exécution, reporting…) Administration et exploitation de l'application métier (Paramétrage, Exécution des traitements…) Support utilisateur & MCO (Assistance fonctionnelle niveau 1 & 2, Diagnostic, résolution d’incidents, escalade si nécessaire...) Planification et organisation des recettes, Formalisation des PV Création/mise à jour de fiches d’assistance, manuels utilisateurs, procédures d’ingénierie
Mission freelance
Data Engineer expert sur Snowflake et DBT
Nicholson SAS
Publiée le
DBT
Snowflake
SQL
6 mois
500 €
Paris, France
Mon client recherche un Data Engineer expert sur Snowflake et DBT pour rejoindre ses équipes basées à Paris , avec une présence impérative de 3 jours par semaine sur site . La mission débutera dès que possible pour une durée initiale allant jusqu’au 30 juin 2026 . Le taux journalier maximum est fixé à 500 euros . Dans un contexte de modernisation et d’optimisation de la plateforme data, l’expert interviendra pour structurer et organiser l’environnement Snowflake , définir et diffuser les bonnes pratiques de développement ainsi que mettre en place les standards de qualité et de performance . Il accompagnera les équipes techniques dans l’ adoption de ces standards et s’assurera de la cohérence des modèles de données et des pipelines existants. Le profil recherché dispose de plus de 6 ans d’expérience en ingénierie data et justifie d’une excellente maîtrise de Snowflake, DBT et SQL . Une aisance en anglais est indispensable pour évoluer dans un environnement international. Ce rôle stratégique allie vision technique, rigueur et pédagogie afin de garantir la robustesse et la scalabilité des solutions data au sein du groupe.
Offre d'emploi
Data Engineer DBT/Snowflake/Tableau/Airflow
OBJECTWARE
Publiée le
Apache Airflow
DBT
Snowflake
3 ans
40k-66k €
270-500 €
Île-de-France, France
Objectif de la mission Objectif global : Construire et maintenir les produits DATA Loyalty Présentiel 2j / semaine au siège SQL / Snowflake - Confirmé - Impératif DBT / Airflow / Astronomer - Confirmé - Impératif Data modeling / Data Quality - Confirmé - Important Tableau / Data Viz - Junior - Souhaitable Français Courant (Impératif) Anglais Professionnel (Impératif) Prestations demandées Sous la responsabilité du Tech Lead, vous êtes l'acteur clé en charge des chaînes d'approvisionnement, de transformation et de mise en valeur des données, participant à la conception et modélisation des produits, assurant la conformité et la maintenabilité des solutions développées, et relevant les défis techniques liés à la volumétrie et à la qualité du patrimoine de données. Au quotidien, vos missions sont de : - Concevoir, développer et déployer les solutions de gestion des données "Cloud-Native" - Assurer la conformité et la maintenabilité du code (TDD, commentaires, etc.) - Détecter, analyser et résoudre les incidents ou anomalies survenant sur les produits de l'équipe - Contribuer aux chantiers transverses (usine logicielle-CI/CD, supervision, catalogue, etc.) - Comprendre la finalité métiers des produits, et surtout la complexité fonctionnelle des données manipulées - Assurer la cohérence de la modélisation des données du patrimoine avec l'aide des Data Managers - Accompagner les profils Produit ou Data Science dans le cadrage des besoins de données métiers (disponibilité, qualité, etc.) - Participer à l'animation de la communauté "Data Tech" (diffusion bonnes pratiques, capitalisation code, veille techno, etc.) - Sensibiliser nos différents interlocuteurs aux enjeux et bénéfices 'data' Qualifications Compétences Data & Analytics requises : - Utilisation de la « Modern Data Stack » (Snowflake, dbt, Tableau, Airflow, etc.) - Intégration & manipulation de données massives (SQL, Python, etc.) - Connaissances des architectures « Data » opérationnelles ou analytiques - Mise en place de supervision de données (contrôle qualité, rejets, alertes) - Connaissances des réglementations sur les données, notamment personnelles (ex : RGPD) Compétences générales attendues : - Connaissances et mise en œuvre des méthodologies Agile : Scrum & Kanban - Culture & techniques DevOps - Collaboration et travail en équipe - Bonne communication orale et écrite - Autonomie et proactivité - Gestion des priorités, risques et alertes - La connaissance du monde de l’hôtellerie est un plus. - Anglais opérationnel requis.
Offre d'emploi
Data Engineer - GCP - CDI
Espritek
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
50k-65k €
140 €
Ivry-sur-Seine, Île-de-France
FnacDarty est le leader européen du retail spécialisé omnicanal, avec des marques iconiques telles que Fnac, Darty, Nature et Découverte, WeFix, engagé pour un choix éclairé et une consommation durable. Vous êtes passionné par les outils BI et la data ? Rejoignez la Data & AI Factory de FnacDarty, entité qui regroupe les compétences fonctionnelles et techniques qui contribue au développement de l’activité grâce à la richesse de nos données et aux technologies avancées d’exploitation. L’entreprise recherche un TechLead Data pour intervenir au sein de la squad Exploitation (Améliorer le pilotage opérationnel des magasins, optimiser les processus et soutenir les décision terrain) Description La mission nécessite un profil capable d’assurer à la fois : • un rôle de leadership technique, garant de la cohérence des choix d’architecture, de la qualité des développements et de l’industrialisation des solutions • un rôle opérationnel de développeur, pleinement impliqué dans la conception et la réalisation des pipelines, modèles et orchestrations. Vous interviendrez principalement sur les technologies GCP (BigQuery, Dataform, Cloud Composer,…) et contribuerez également, dans une moindre mesure, à la maintenance et à l’évolution de flux existants sous Talend. En binôme avec le PO, vous participerez au cadrage des besoins, à la structuration du backlog, à la définition des solutions techniques et à la sécurisation de la delivery. Missions principales • Participer au cadrage fonctionnel avec le PO et les parties prenantes métier pour comprendre les impacts business des données et ceux afin de réaliser des conceptions pertinentes et alignées avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Contribuer ponctuellement aux flux existants sous Talend. • Assure la maintenance corrective ou évolutive • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Mettre en place des bonnes pratiques de développement : tests, documentation, revue de code, versioning. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe • Assurer une veille technologique sur les outils GCP et les frameworks data. Livrables • Conceptions techniques des modèles, pipelines et orchestrations GCP. • Développements et industrialisation des traitements (BigQuery, Dataform, Cloud Composer). • Documentation technique à jour (architecture, transformations, procédures). • Contributions au cadrage et à la structuration du backlog avec le PO. • Mise en place ou renforcement des bonnes pratiques DataOps (tests, CI/CD, monitoring). • Assurer la TMA des pipelines existants (maintenance corrective et évolutive, résolution d’incidents, mises à jour techniques). Compétences Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • GCP : Expérience sur les outils BigQuery, DataForm, CoudComposer/AirFlow, Pub/Sub, Dataflow et d’autres services GCP liés aux données. • Talend : Connaissances et pratiques dans la conception et la gestion des workflows • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins Compétences transversales : • Esprit analytique et rigueur. • Leadership technique, pédagogie, capacité à embarquer. • Approche orientée résolution de problèmes et fiabilité opérationnelle. • Capacité à gérer des priorités multiples dans un environnement dynamique. • Capacité à travailler en équipe et à collaborer avec des parties prenantes variées. • Autonomie et force de proposition sur les solutions techniques. • Bonne communication et pédagogie pour expliquer les concepts techniques aux non-spécialistes. • Capacité à comprendre les besoins pour proposer aux métiers les solutions leur permettant d’utiliser efficacement les données et de prendre les bonnes décisions
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- ARCE | Informations générales-Indemnisation
- Je code pour vous une application gratuitement
- Passage au réel après dépassement micro : notification URSSAF ?
- Placement via mon EURL à l'IS
- Pourquoi est-il si dur de décrocher une mission avec un CV pourtant plutôt intéressant ?
- TJM en vrille sur une proposition d'AO
307 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois