L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 355 résultats.
Mission freelance
Data Engineer Senior – Azure Databricks (Python) (H/F)
HOXTON PARTNERS
Publiée le
Azure
Databricks
Python
6 mois
Paris, France
Dans le cadre d’un projet Data sous environnement Microsoft Azure, nous recherchons un Data Engineer disposant d’une expérience significative sur Azure Databricks (Python). Le consultant interviendra sur la conception, le développement et l’optimisation de traitements data au sein d’une plateforme moderne. Il participera à la mise en place de pipelines de transformation et à l’intégration des flux dans l’écosystème Azure. Les principales responsabilités incluent: Développement de notebooks Azure Databricks en Python / PySpark Conception et optimisation de pipelines de transformation Intégration avec Azure Data Factory Contribution aux sujets de gouvernance via Unity Catalog Participation aux déploiements et bonnes pratiques d’industrialisation (Terraform)
Offre d'emploi
Alternance - Data Analyst / Data Engineer F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
Numpy
Bordeaux, Nouvelle-Aquitaine
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort
EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis
3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
Offre d'emploi
Data Engineer (F/H)
INFOGENE
Publiée le
40k-50k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer (F/H) , venez renforcer notre équipe lyonnaise en ayant les responsabilités suivantes : Analyser et comprendre les besoins : Étudier l’existant pour identifier les axes d’amélioration et co-construire des solutions adaptées avec les équipes métiers. Concevoir et développer des pipelines de données : Créer des pipelines de données robustes, performants et évolutifs à l’aide de technologies comme Snowflake ou équivalent . Modéliser et optimiser : Concevoir des modèles de données performants et optimiser les requêtes pour répondre aux exigences métiers tout en garantissant un haut niveau de performance. Supervision et monitoring : Déployer des solutions de monitoring et d’alertes pour assurer la disponibilité et la fiabilité des traitements de données. Gérer les incidents techniques : Diagnostiquer et résoudre les problèmes liés aux pipelines ou infrastructures de données. Collaboration avec les équipes transverses : Participer aux projets en interagissant avec les experts métiers, les architectes techniques et les chefs de projet.
Offre d'emploi
Data Engineer Semarchy XDI - Nantes (F/H)
Argain Consulting Innovation
Publiée le
Informatica
Semarchy
Talend
35k-40k €
Nantes, Pays de la Loire
Attention : cette opportunité n'est pas ouverte aux Freelances Nous recherchons un/e Data Engineer pour renforcer des équipes de Data Factory. Les activités à couvrir : · Compréhension de l’activité et des besoins de vos clients, en dialogue avec la MOA · Compréhension du SI de production, en dialogue avec les équipes MOE · Modélisation du Système d’Information Décisionnel · Conception et réalisation des traitements d’alimentation des datamarts · Diagnostic des dysfonctionnements rencontrés · Maintenances correctives et évolutives · Support auprès des différents métiers · Documentation technique · Suivi des traitements Pas d’activité de reporting (Business Object ou autre outil BI). Uniquement de l’alimentation de datamarts via un ELT Les compétences recherchées : Maitrise d’un ELT du type SEMARCHY XDi ou type Talend / Informatica Connaissance d’une base de données orientée Analytique (ex : HP VERTICA) Appétence à manipuler de gros volumes de données Bonne connaissance du langage SQL Des compétences sur un outil de modélisation (ex : Power Designer) et un outil de qualification (ex : QCHP) seraient un plus
Mission freelance
Data Scientist / AI Engineer
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Mission freelance
Data Engineer Senior
Groupe Aptenia
Publiée le
Informatica PowerCenter
Java
Oracle
2 ans
500-520 €
Bruxelles, Bruxelles-Capitale, Belgique
🔍 Nous recherchons un Ingénieur Data Senior pour renforcer une équipe en charge de la conception et de l’optimisation de pipelines ETL (Informatica PowerCenter) sur des bases de données massives (20 To+ : Oracle/SybaseIQ). Vous participerez également au développement d’applications Java (Springboot, Maven) et à l’amélioration des processus de release et de performance. 🎯 Vos missions principales ✅ Concevoir et optimiser des pipelines ETL complexes (Informatica PowerCenter). ✅ Développer des applications Java (Springboot, Maven) pour des solutions data robustes. ✅ Collaborer avec les analystes métiers pour traduire les besoins en solutions techniques. ✅ Gérer les releases : Sécuriser les changements, appliquer les bonnes pratiques de codage. ✅ Optimiser les performances : Traitement par lots, planification, automatisation. ✅ Résoudre des problèmes avec une approche pragmatique et proactive. ✅ Travailler en équipe pluriculturelle (environnement anglophone, secteur bancaire/assurance un plus).
Mission freelance
Data Engineer SAP
Mon Consultant Indépendant
Publiée le
SAP
3 mois
800-820 €
Paris, France
Contexte du Projet : Nous recherchons un Data Engineer senior pour un projet stratégique de 14 semaines, visant à développer un système d'aide à la décision de planification Supply Chain chez un acteur de la défense. Le projet implique l'intégration de données provenant de multiples ERP (notamment SAP) et la création d'un moteur de calcul pour analyser l'impact des retards sur les pièces critiques et la disponibilité des systèmes finaux. Missions Principales : Expertise en extraction de données SAP (modules MM, PP, MRP) et modélisation de données industrielles complexes. Maîtrise des tables SAP (MRP, stocks, ordres, nomenclatures) pour structurer un Data Layer robuste et pertinent. Développement de moteurs de calcul (Python, SQL ou autres) permettant d'analyser l'impact des retards sur la Supply Chain. Adaptation à un environnement multi-sites et multi-ERP hétérogène. Interaction directe avec les consultants opérations/supply et les équipes IT SAP. Contribuer à la mise en place d'un outil d'aide à la décision et de planification pour identifier et tracer les risques de rupture. Compétences Techniques Requises : Solide expertise SAP sur l'extraction et la modélisation de données (MM/PP/MRP). Maîtrise des concepts et tables liés à la planification (MRP, stocks, ordres, BOM). Expérience confirmée en développement de moteurs de calcul (Python, SQL). Familiarité avec les environnements Data Analytics. Profil Recherché : Senior, avec une expérience significative dans des projets similaires. Capacité à s'adapter et à évoluer dans un contexte industriel sensible et exigeant. Excellentes compétences en communication et en travail d'équipe. Localisation et Durée : Localisation hybride, préférentielle : Bretagne, Brest, Bordeaux. Démarrage : Janvier (sous réserve de confirmation du projet). Durée : 14 semaines.
Offre d'emploi
Data Engineer H/F
JEMS
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : mowzc8bs1s
Offre d'emploi
Data Engineer Hadoop/Cloudera/Airflow/Spark
OBJECTWARE
Publiée le
Apache Airflow
Apache Spark
Cloudera
3 ans
40k-67k €
400-550 €
Île-de-France, France
Les missions sont : Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Mission freelance
POT8904 - Un Data Engineer Spark/Scala sur Bordeaux
Almatek
Publiée le
Dataiku
6 mois
190-410 €
Bordeaux, Nouvelle-Aquitaine
Almatek recherche pour l'un de ses clients Un Data Engineer Spark/Scala sur Bordeaux. Afin de renforcer l'équipe de développement, on recherche un Data Engineer expérimenté et connaissant les technos suivantes : Solutions utilisées : -Socle Big Data (OI1) : *Compute : Yarn *Storage: HDFS (avec chiffrement pour C3), Hive *Sécurité des données: Ranger, Ranger KMS, Ldap, Kerberos Frameworks/langage/outils utilisés : -MoveNAStoHDFS -Moteur d'ingestion v2 -Spark Scala -Dictionnaire de données -Socle Data Science : *DataiKu Automation Frameworks/langage/outils utilisés: -Spark 3 -HQL Localisation : Bordeaux + 2 à 3 jours de présence sur site requise
Mission freelance
Data Platform Engineer
Phaidon London- Glocomms
Publiée le
Apache Spark
AWS Cloud
CI/CD
6 mois
400-550 €
Paris, France
Support Technique et Expérience Développeur Assurer un support quotidien aux ingénieurs et data scientists. Identifier et contribuer à la gestion de la dette technique ; fournir des outils d'automatisation et de test. Collaborer avec les équipes plateforme pour optimiser l'expérience développeur globale. Adoption de la plateforme et bonnes pratiques Promouvoir l'utilisation efficace des outils et fonctionnalités de la plateforme. Se tenir informé(e) des tendances du secteur et des technologies cloud/données pertinentes. Développement des compétences et animation de la communauté Évaluer les compétences de l'équipe et dispenser des formations ciblées. Animer une communauté de pratique pour présenter les améliorations et partager les bonnes pratiques. Produire de la documentation technique et des supports de formation. Retours d'information et évolution de la plateforme Recueillir les retours des utilisateurs et contribuer à l'amélioration du produit. Valider les livrables d'ingénierie de la plateforme par des tests alignés sur des cas d'utilisation réels. Défendre les intérêts des ingénieurs et des data scientists en interne.
Offre d'emploi
Data Engineer Cloud & BI (Finance)
Amontech
Publiée le
Azure
Git
Google Cloud Platform (GCP)
1 an
40k-45k €
400-450 €
Île-de-France, France
Contexte Nous recherchons un(e) Data Engineer pour rejoindre un projet stratégique dans le secteur bancaire. La mission vise à améliorer l’exploitation des données métiers à travers la création et la refonte de dashboards et le développement de solutions analytiques sur le cloud. Missions Comprendre l’environnement et les besoins métiers pour proposer des solutions adaptées S’approprier et optimiser les dashboards existants Collecter, transformer et gérer les données en garantissant leur qualité, intégrité et sécurité Participer à la définition et au suivi des KPI métiers Animer des ateliers et groupes de travail avec les utilisateurs pour collecter les besoins Développer et automatiser les traitements de données Former et accompagner les utilisateurs sur les outils et dashboards Contribuer à l’amélioration de l’expérience utilisateur (UX) et du design des tableaux de bord
Mission freelance
Data Engineer Snowflake (H/F)
Cherry Pick
Publiée le
AWS Cloud
Python
Snowflake
12 mois
550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Snowflake (H/F) pour l'un de ses clients qui opère dans le secteur du prêt-à-porter. Description 🏢 Le Contexte : Pilotage et Évolution du socle Snowflake Vous rejoignez une équipe Data en pleine transformation. Le socle technologique est désormais en production et nous recherchons un Data Engineer Senior pour reprendre le flambeau, sécuriser le "Run" et poursuivre le développement de la plateforme. L'enjeu est double : assurer une passation fluide avec le consultant sortant (fin de mission fin avril) et accompagner l'arrivée du nouveau Responsable Data (prévue le 9 février) dans l'évolution de la stratégie (replatforming d'apps legacy, architecture cloud). 🎯 Vos Missions : Développement, Run et Optimisation En tant que référent technique Snowflake, vos responsabilités couvrent l'ensemble du cycle de vie de la donnée. 1. Développement & Engineering : Développer et optimiser les pipelines de données complexes. Faire évoluer la plateforme Data pour répondre aux nouveaux besoins métiers. Intégrer les fonctionnalités avancées de Snowflake ( Snowflake Cortex et Snowflake Intelligence IA for SQL ) pour automatiser les analyses. 2. Run & Passation (Priorité court terme) : Assurer la reprise en main complète de l'environnement de production. Récupérer l'historique et les bonnes pratiques lors de la phase de passation (binôme avec le consultant actuel). Garantir la stabilité et la disponibilité des flux en production. 3. FinOps & Performance : Piloter l'optimisation des coûts liés à l'utilisation de Snowflake. Mettre en place des stratégies de monitoring de consommation et de tuning de performance.
Mission freelance
POT8873 - Un Data Engineer sur Lyon
Almatek
Publiée le
SQL
6 mois
260-430 €
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients, un Data Engineer sur Lyon. Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client Savoir-être : Bonnes compétences en communication Esprit d’équipe : capacité à collaborer efficacement Force de proposition : aptitude à apporter des idées et solutions proactives
Mission freelance
Data Engineer - Secteur Assurance et Prévoyance (H/F)
EASY PARTNER
Publiée le
Apache NiFi
Bash
Gitlab
230 jours
420-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Dans le cadre d'un projet de refonte de son SI, notre Groupe renforce son dispositif Data au sein de la Direction des Systèmes d’Information. L’objectif est de concevoir, développer et maintenir des flux de données fiables et industrialisés au service des équipes métiers Épargne et Services Financiers. Le poste est rattaché au DAS Épargne & Services Financiers et s’inscrit dans un environnement orienté data, qualité et automatisation. Missions Missions principales En tant que Data Engineer, vous interviendrez sur la conception, le développement et l’industrialisation des flux de données, dans un contexte finance / assurance à forts enjeux de qualité, de traçabilité et de performance. Concevoir et implémenter le socle data du Master Data Management (MDM) Intégrer et transformer les données issues de différentes sources Sécuriser et industrialiser les flux dans le respect des standards de qualité et de traçabilité attendus Mettre en œuvre des traitements de données (collecte, transformation, stockage) Garantir la qualité, la fiabilité et la performance des flux Travailler en lien étroit avec les équipes métiers et IT Contribuer aux bonnes pratiques de développement, d’automatisation et de CI/CD Stack technique Compétences requises (niveau confirmé) Data & traitement : Apache NiFi, requêtage et traitement de données (SQL / NoSQL) Connaissance des formats et protocoles : JSON, XML, CSV, REST API Base de données & stockage : PostgreSQL, Stockage objet (S3) DevOps & industrialisation : GitLab, GitLab CI, Pratiques CI/CD Compétences appréciées Langages & scripting : Python, Bash
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
355 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois