L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 288 résultats.
Offre premium
Mission freelance
Data Engineer Milan ITALIE
APTEA
Publiée le
Azure
Python
Snowflake
12 mois
430-530 €
Milan, Lombardie, Italie
Notre client final, leader mondial des services aux entreprises, cherche à monter une équipe internationale pour sa Data Factory, avec un premier recrutement basé à Milan en Italie. Le consultant devra parlé anglais et italien couramment. L'objectif est de travailler en équipe avec des consultants basés au United Kingdom, en Italie et à Paris. Nous cherchons un data engineer, expérimenté, ayant déjà mis les mains dans le cambouis, autonome et communiquant. Il s'agit d'une mission longue. Le consultant devra vivre sur Milan.
Mission freelance
Data Engineer
SKILL EXPERT
Publiée le
DBT
Microsoft Power BI
Python
6 mois
450 €
Bordeaux, Nouvelle-Aquitaine
A l'écoute de nos clients, vous comprenez leurs attentes techniques et vous faites évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : • Effectuer des alimentations de données, • Travailler en binome avec un Data Analyst sur un sujet IA/Data. • Travailler autour d'agent IA pour du requetage SQL en langage naturelle • Mise à dispo d'outillage d'aide aux développement, monitoring… , • Faire une veille technologique autour des architectures data,
Offre d'emploi
Data Engineer
Signe +
Publiée le
24 mois
40k-45k €
286-450 €
Niort, Nouvelle-Aquitaine
Mission : Un profilData ingénieur / Software ingénieur orienté Data avec une expérience significative sur Azure Databricks, python (software engineering) et PySpark. La connaissance des concepts de Machine Learning, notamment des algorithmes de type bagging et boosting, constitue un atout apprécié. En tant que Data/Software ingénieur, le prestataire interviendra au sein d'une équipe agile SAFe et contribuera, au travers de user stories, aux activités suivantes : -Conception et développement des pipelines Data et ML industrialisées et robustes o Pipelines Batch sous Azure Databricks o Utilisation avancée de PySpark, Delta Lake, MLFlow, , Workflows o Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU o Mise en place de mécanismes de reprise d'erreur, de traçabilité et de monitoring o Collaboration étroite avec les data scientists pour transformer les prototypes en solutions industrielles -Développement logiciel et services o Conception et développement de packages python o Respect des standards de développement du socle (qualité du code, tests unitaires, CI/CD, documentation, …) o API sous Azure Function et/ou Azure Container Apps -Contribution aux phases projets (étude de faisabilité, architecture, conception, réalisation, MEP) et aux différents activités de RUN et d'amélioration continue -Participation active aux rituels agiles 3j/semaine sur site Compétences techniques requises : Azure Databricks PySpark Delta Lake Python
Offre d'emploi
Senior Data Engineer
NETSEC DESIGN
Publiée le
Data Engineering
Casablanca, Casablanca-Settat, Maroc
On recherche pour notre client final un Senior Data Engineer pour construire une data platform temps réel sur un écosystème paiement à très forte volumétrie. Architecture event-driven, streaming, CDC, ledger-grade reliability exigée. Impact direct sur la fraude, le pilotage financier et les systèmes transactionnels critiques. Mission réservée aux profils senior, production-grade, capables d'architecture et d'exécution sans supervision. Architecte DATA Architecture event-driven, streaming, CDC, ledger-grade reliability
Offre d'emploi
Data engineer
Gentis Recruitment SAS
Publiée le
ETL (Extract-transform-load)
microsoft
Modélisation
6 mois
40k-64k €
550-800 €
Luxembourg
Data Engineer orienté gestion de la donnée , capable de prendre en charge la donnée de bout en bout : de son arrivée jusqu’à son exploitation, en garantissant sa qualité, sa cohérence et sa performance. Le poste s’inscrit dans un environnement majoritairement Microsoft , avec des enjeux forts autour de la structuration, de l’analyse et de la modélisation des données . Missions principales Gérer la donnée tout au long de son cycle de vie (ingestion, transformation, stockage, exploitation). Concevoir, maintenir et optimiser des data pipelines fiables et performants. Organiser et structurer les données via des modèles de données clairs et adaptés aux usages métier. Participer à des activités de data analysis pour assurer la qualité et la cohérence des données. Automatiser les traitements et flux de données via du scripting Python . Collaborer étroitement avec les équipes techniques et métiers , dans une logique transverse, afin de comprendre et répondre aux besoins liés à la donnée. Veiller aux bonnes pratiques de gouvernance, de sécurité et de performance des données. Environnement technique Écosystème Microsoft (bases de données, outils data, cloud) Python (scripting, automatisation, traitement de données) Data pipelines / ETL – ELT Modélisation de données SQL Une connaissance de l’industrie des fonds / de la gestion d’actifs constitue un réel avantage.
Offre d'emploi
Data Engineer Databricks
Atlanse
Publiée le
Databricks
Python
SQL
1 an
50k-60k €
400-500 €
Châtillon, Île-de-France
Vous intégrerez une équipe, responsable de la migration de traitements existants depuis une plateforme on premise vers une plateforme Data Cloud basée sur Azure et Databricks. Dans ce contexte, vous interviendrez sur la conception et la structuration des traitements data. Votre rôle Conception et développement de solutions data · Concevoir les architectures techniques nécessaires pour la valorisation des données · Concevoir les solutions permettant le traitement des données · Réaliser les croisements de données nécessaires ainsi que les opérations de validation, correction et contrôle qualité · Apporter une expertise technique pour développer les solutions data appropriées aux différents cas d'usage Gouvernance et gestion de la donnée · Structurer les données en intégrant les enjeux de cycle de vie · Identifier et qualifier les sources de données pertinentes · Garantir la cohérence et la qualité de l'intégration des données · Veiller au respect des exigences de traitement et de sécurité sur les données · Suivre et référencer l’usage des données Documentation et collaboration · Documenter et maintenir à jour les référentiels et catalogues de données · Travailler en collaboration avec les Architectes d'Entreprise Data
Mission freelance
Data Engineer Senior
Comet
Publiée le
Azure
Data Lake
Pandas
24 mois
400-650 €
Paris, France
Objectifs et livrables Dans le cadre du lancement de notre nouveau projet, nous recherchons une prestation de Data Engineer senior pour concevoir et mettre en œuvre des pipelines de données dans un environnement serverless exigeant. Le prestataire Data Engineer senior doit être capable de produire, mais aussi de comprendre les enjeux métier, de cadrer les sujets en amont, de faire les bons choix de conception et de diffuser son savoir-faire au sein de la squad. Missions principales : Concevoir et développer des pipelines de données en Python Implémenter des traitements batch et des orchestrations via Azure Durable Functions Manipuler des données volumineuses, notamment au format Parquet Mettre en place des validations de schémas et des contrôles de qualité de données Assurer l’intégration avec des APIs externes Participer à la modélisation et à l’optimisation des bases Azure SQL Mettre en œuvre l’observabilité de la solution : traces, métriques, logs Industrialiser les déploiements via CI/CD • Garantir la qualité et la sécurité du code Contribuer à l’analyse des besoins et au cadrage des sujets avant implémentation Porter une réflexion de conception sur les choix techniques, les compromis et la maintenabilité Utiliser l’IA comme un levier d’ingénierie concret : accélérer l’exécution, explorer des options, challenger des choix, améliorer la qualité et gagner en efficacité, sans déléguer la réflexion ni baisser le niveau d’exigence Partager ses pratiques, expliciter ses choix et contribuer à la montée en compétence de la squad Travailler efficacement dans un environnement international, y compris en anglais sur des sujets techniques et de conception Profil recherché : Capable de comprendre rapidement les enjeux métier et de les traduire en solutions robustes et pragmatiques Capable de penser le problème avant de se focaliser sur l’implémentation Doté d’une vraie expertise d’ingénierie et de conception, au-delà de la seule maîtrise d’un langage, d’un framework ou d’une version spécifique Capable d’utiliser les outils d’IA de manière avancée, critique et pertinente, et non comme un simple générateur de code Proactif, précis et honnête sur ses capacités, ses limites et les risques associés à ses choix Capable de produire de la synthèse utile à la décision Attiré par l’immersion dans les sujets, le partage, la transmission et le travail transverse Compétences requises : Langage : Python Cloud : Expérience des Azure Functions, notamment Durable Functions v2 Capacité à récupérer et exploiter des données depuis différentes sources Azure : Data Lake, Blob Storage, Azure DB Data processing: Pandas Polars PyArrow Langues : Bon niveau d’anglais, permettant de participer de manière autonome à des échanges techniques et de conception, à l’écrit comme à l’oral La valeur attendue réside aussi dans la capacité à comprendre les enjeux, concevoir les bonnes solutions, utiliser l’IA avec discernement, expliciter les choix et faire progresser l’équipe. Compétences demandées PYTHON - Expert POLARS - Confirmé PYARROW - Confirmé PANDAS - Confirmé Fonctions Azure - Expert Niveau de langue Anglais - Courant
Offre d'emploi
Data Engineer Confirmé / Senior
CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
Batch
1 an
Rennes, Bretagne
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé / senior : Participer à la définition de l'architecture Data Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Offre d'emploi
Data Engineer SENIOR
Tritux France
Publiée le
Cloud
Data Lake
Pandas
3 ans
40k-45k €
400-470 €
Île-de-France, France
Objectif de la mission Au sein d’une équipe produit, vous interviendrez sur la conception, le développement et l’industrialisation de pipelines de données complexes, dans un environnement technique moderne et orienté performance. Votre objectif principal est de garantir des solutions data : Scalables Maintenables Alignées avec les standards d’architecture et de qualité Missions & responsabilités Ingénierie & Développement Concevoir et développer des pipelines de données robustes et performants Participer à la définition et à la mise en œuvre d’architectures data Garantir la qualité du code (Clean Code, DDD, peer review) Documenter les solutions Industrialisation Mettre en place des mécanismes d’observabilité (monitoring, logs, alerting) Optimiser les performances et les coûts (FinOps Data) Assurer la sécurité et la conformité des données Expertise & Collaboration Traduire les besoins métier en solutions techniques Contribuer aux rituels agiles et à la conception des user stories Résoudre les incidents de production et anticiper les risques Collaborer avec les équipes transverses Participer au partage des bonnes pratiques
Mission freelance
Data Engineer
Orcan Intelligence
Publiée le
DBT
Docker
ETL (Extract-transform-load)
3 mois
400-500 €
Paris, France
Dans le cadre du développement de solutions data à l’échelle de l’entreprise, nous recherchons un Data Engineer Senior. Vous interviendrez sur la conception et la mise en œuvre de solutions de data warehouse, en manipulant de grands volumes de données structurées et non structurées. Vous collaborerez étroitement avec les architectes data et les équipes métier afin de traduire les besoins en solutions techniques robustes et performantes. Missions principales Traduire les besoins métier en spécifications techniques Développer des flux ETL (outils natifs type TPT, SQL et outils tiers comme DBT) Rédiger et optimiser des requêtes SQL complexes et scripts shell Concevoir et développer des pipelines de données (batch et streaming) Mettre en place des solutions d’ingestion de données à faible latence Définir et implémenter des processus d’intégration dans l’environnement IT Superviser les performances et recommander des optimisations Rédiger et maintenir la documentation technique Interagir avec les clients pour affiner les besoins Supporter les équipes projet et delivery
Offre d'emploi
Data engineer (H/F)
Amiltone
Publiée le
35k-40k €
Lille, Hauts-de-France
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Mission freelance
Data Engineer Python / Big Data
STHREE SAS
Publiée le
Big Data
Data Engineering
PySpark
6 mois
Paris, France
Notre client est un acteur majeur du secteur bancaire, reconnu pour sa capacité d’innovation et sa transformation digitale. Dans le cadre du renforcement de ses équipes Data au sein des Risques de Marché , nous recherchons un(e) Data Engineer Python / Big Data . Intégré(e) à une équipe Agile, vous interviendrez sur des projets stratégiques liés aux calculs réglementaires et à la transformation des plateformes data vers des architectures temps réel. Vos responsabilités : Concevoir et développer des pipelines de données performants (Python, PySpark) Participer à l’ évolution du Data Warehouse Optimiser les flux de données et améliorer les performances de traitement Mettre en place des solutions de monitoring et d’alerting temps réel Développer des dashboards de suivi (Power BI, Elasticsearch) Garantir la qualité, la fiabilité et la traçabilité des données Participer à l’industrialisation des traitements (CI/CD, automatisation) Collaborer avec les équipes métiers (risques, finance) Environnement technique Langages : Python, SQL Big Data : PySpark, Kafka Cloud : GCP (BigQuery) Orchestration : Airflow, DBT DevOps : Docker, Jenkins, Terraform / Terragrunt, CI/CD BI / Monitoring : Power BI, Elasticsearch Outils : Git, Linux Méthodologie : Agile / Scrum
Offre d'emploi
DATA ENGINEER CONFIRME / SENIOR (H.F)
NSI France
Publiée le
Azure
Cloud
Data Engineering
6 mois
Île-de-France, France
Contexte Dans le cadre de projets de transformation et de modernisation des systèmes d'information chez de grands acteurs de la distribution et de la grande consommation, nous recherchons un Data Engineer confirmé / sénior pour intervenir sur une migration de plateforme Data vers le Cloud. Vous intégrerez une squad Agile dédiée, au sein d'une organisation Data Factory, dont la mission est de concevoir et déployer des produits Analytics innovants à destination des fonctions support, des équipes logistiques et des points de vente. Vos missions En tant que Data Engineer, vous interviendrez sur tout ou partie des missions suivantes : Analyse des traitements existants dans le cadre de projets de migration on-premise vers le Cloud Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein d'un Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) Rédaction de la documentation technique (dossiers d'analyse, release notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD Environnement technique Azure / Databricks / Spark Python / SQL CI/CD, Azure DevOps Outils Agile (JIRA)
Offre d'emploi
Data Engineer Adtech Big Query
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
45k-50k €
Rennes, Bretagne
Contexte de la mission : Le client a pour mission d'accompagner les agences médias nationales et locales, les annonceurs grands comptes et les acteurs publics au travers de plans média 360° (TV Segmentée, Streaming, display, programmatique, social...) permettant de communiquer de manière ciblée auprès des intentionnistes BtoC et BtoB au travers de différents formats publicitaires. La mission sera encadrée par le responsable datas & adtech, le product manager, et les parties prenantes (accounts managers et commerciaux). Objectifs et livrables : Finalités du poste : • Construire et maintenir les flux de données nécessaires à la Customer Data Platform (CDP). • Mettre la donnée à disposition des Account Managers pour répondre plus vite et mieux aux briefs. • Automatiser les traitements datas (datas propriétaires, datas des plateformes publicitaires) et mettre en place les outils internes en utilisant les capacités de l'IA (nouvelles activités au sein de l'entité). • Intégrer dans notre stack technique les outils publicitaires du marché pour la collecte, le ciblage et l'activation de données et la mise en place de campagnes publicitaires sur différent canaux. Missions principales : • Organiser, structurer, exploiter la donnée dans la CDP. • Maitriser les scripts d'ingestion (Python, SQL BigQuery) et en assurer le bon fonctionnement quotidien. • Intégrer toutes les données internes utiles à l'entreprise en collaborant avec les autres équipes (Développeurs, Data, Produit, IT et Juridique). • Construire les dashboards de l'entité pour piloter la pertinence de notre donnée, comprendre et améliorer la monétisation de nos médias, et le pilotage de l'entité (clients, briefs, campagnes, performances). • Développer les outils internes pour accélérer les opérations (réponse aux briefs, automatisation de mise en place de campagnes) en collaboration étroite en avec les Account Managers. • Intégrer les adtechs (alternatives IDs, dsp Equativ & The Trade Desk, pixels et audiences tracking, autres solutions du marché - metabase, mindmetrics) Technologies : • Développements web et back pour les outils internes • Pilotage activité et pilotage interne (BigQuery, Metabase) • Intégration de solutions marchés(DSP GAM, Equativ, TheTradeDesk, First-ID,...) Référence de l'offre : 1ocsrdgcap
Offre d'emploi
Data Engineer
KP2i
Publiée le
CI/CD
Cortex XSOAR
DBT
1 an
40k-45k €
400-550 €
Île-de-France, France
🚀 Data Engineer – 5+ ans d’XP | anglais requis | dispo ASAP ? Je recherche un Data Engineer pour une mission chez un grand compte international, au sein d’une équipe Data E-Commerce en forte croissance. 👉 Le contexte Des projets stratégiques autour de la Customer Data Platform, du CRM et des audiences digitales, avec de forts enjeux de performance, d’attribution et de structuration de la donnée. 👉 Ce que vous allez faire Construire et optimiser des pipelines data Structurer et modéliser la donnée (data marts, CDP) Contribuer à la performance e-commerce & CRM Collaborer avec les équipes Data Science Automatiser et industrialiser les process (CI/CD) 👉 Stack Snowflake • DBT • AWS • SQL • Power BI / Tableau 👉 Bonus ++ Appétence IA for delivery (Cortex, automatisation DBT, génération de code, optimisation des pipelines data) 👉 Infos clés 5+ ans d’expérience requis Anglais obligatoire Démarrage : ASAP 📩 Vous êtes disponible rapidement ou connaissez quelqu’un ? Écrivez-moi en MP.
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
288 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois