L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 001 résultats.
Mission freelance
Data Scientist Expert (H/F)
Freelance.com
Publiée le
Gitlab
Machine Learning
Matplotlib
3 mois
400-570 €
Versailles, Île-de-France
Dans le cadre de nouveaux projets industriels à fort enjeu, une grande entreprise du secteur industriel et défense recherche un Data Scientist expert afin d’exploiter des données issues de capteurs et systèmes industriels (HUMS et données de pannes). La mission vise à développer des modèles de maintenance prédictive et à réaliser des analyses avancées de fiabilité et de durée de vie des systèmes. Missions principales Collecter, nettoyer et structurer des données industrielles complexes (HUMS, pannes, capteurs) Explorer et analyser les données afin d’identifier des corrélations entre usage et défaillances Développer des modèles de maintenance prédictive Réaliser des analyses statistiques avancées et de survivance Mettre en œuvre des modèles de fiabilité (Kaplan-Meier, Weibull) Interpréter les résultats et produire des recommandations exploitables Documenter les modèles, processus et résultats Restituer les analyses sous forme de livrables clairs et exploitables Livrables attendus État des lieux et structuration des données industrielles Analyse des corrélations entre usage et pannes Étude de survivance des systèmes Documentation des modèles et méthodologies utilisées Synthèse des résultats pour les équipes métiers Informations clés Localisation : Versailles-Satory (Île-de-France) Démarrage : mi-juin 2026 Durée : prestation forfaitaire avec suivi par lots Temps plein Forte présence sur site dans un environnement sécurisé
Mission freelance
Tech Lead FullStack .Net / IAM Expert
PROPULSE IT
Publiée le
.NET
IAM
24 mois
300-600 €
Paris, France
Tech Lead FullStack .Net / IAM Expert.e • CONTEXTE Nous recherchons un(e) TECH LEAD sur le périmètre Authentification et Customer Identity and Access Management qui gère l'authentification des clients pour les sites eCommerce du groupe . Un Tech Lead est le.la garant.e de la qualité logicielle du delivery de l'équipe. Il décide des choix techniques en collaboration avec l'équipe, le Head Of Tech, la team architecture et les team DevOps. Il.Elle possède une capacité relationnelle et méthodologique permettant de faire monter l'équipe en compétence. • ACTIVITES PRINCIPALES Vision stratégique / business • Comprend le fonctionnel pour pouvoir porter la vision technique : - Comprend les implications techniques des nouvelles epics et user-stories, - Est garant.e des cadrages techniques des user-stories à implémenter, - Propose des compromis techniques/fonctionnels et lève les alertes. • Travaille en étroite collaboration avec le.la Product Owner : - Challenge ses besoins fonctionnels et collabore sur les priorisations des sujets techniques - Product Owner et Tech Lead forment un binome fort pour piloter l'équipe et son produit. Vision technique • Est garant.e de la qualité logicielle de la réalisation, organise et effectue des revues de codes dans ce but, • Est le.la décideur des choix techniques en collaboration avec l'équipe et le.la Head of Tech, • Collabore à l'identification des contraintes d'architecture et s'assure d'être dans la trajectoire définie avec les ambitions techniques définies par la team architecture, • Collabore à la fois avec les OPS et des contributeurs techniques externes à l'équipe afin de fluidifier la réalisation du projet et les challenger, • Co-construit une roadmap à 3 mois des améliorations techniques permettant de garantir un investissement en continue sur la qualité. • Synchronise la roadmap technique et fonctionnelle avec les autres équipes de la Digital Factory. Vision équipe • Etre le référent technique sur les pratiques de développement de l'équipe, • Guide l'équipe vers l'excellence technique et l'autonomie : - Favorise l'apprentissage et la progression des développeurs de l'équipe en mettant en œuvre des bonnes pratiques. • Participe aux développements Vision opérationnelle • Est garant du bon fonctionnement de ses livraisons en production : - Etablit le plan de déploiement, - Prévoit le bon niveau de monitoring/log, - Anticipe, planifie et suit les livraisons, - Analyse les problèmes identifiés en production, - Gère les situations de crise et est apte à prendre les bonnes décisions.
Mission freelance
Lead / Data Engineer senior
Comet
Publiée le
Apigee
Google Cloud Platform (GCP)
Python
5 mois
210-630 €
Île-de-France, France
Bonjour à tous, notamment aux Data Engineers Seniors ⚙️ spécialisés sur GCP / BigQuery 🔎 Je cherche un Data Engineer Senior avec une forte dimension expertise technique et expérience en rôle de lead, pour rejoindre une data platform stratégique en pleine montée en puissance. L’objectif de la plateforme est de centraliser, transformer et exposer la donnée à grande échelle afin de supporter des cas d’usage analytics, BI et IA dans un environnement data moderne. La plateforme est déjà en place et entre dans une phase clé d’optimisation, de scalabilité et d’enrichissement des usages (notamment autour de l’IA). 💻 Ce que tu vas faire : - Concevoir et faire évoluer des pipelines data robustes, scalables et sécurisés - Développer des traitements avancés sur BigQuery (CTE, window functions, optimisation performance & coûts) - Optimiser les requêtes à grande échelle via analyse des plans d’exécution - Concevoir des modèles de données (star / snowflake) pour des usages BI (PowerBI, Looker) - Intégrer des sources de données multiples (API, cloud, bases, fichiers…) - Industrialiser les workflows via CI/CD et Infrastructure as Code (Terraform, Cloud Build) - Contribuer à l’intégration de cas d’usage IA dans les pipelines data - Participer aux choix d’architecture et structurer les bonnes pratiques data 🎯 Stack & environnement : BigQuery / SQL / Python / GCP / Cloud Build / Cloud Workflows / Apigee / Terraform / GitHub / PowerBI / Looker ➕ Bonus : expérience sur des environnements media / digital data (Google Analytics, Salesforce, CRM, social media) 📍 IDF : 2 jours de TT 🏡 📅 Démarrage : ASAP Qu'en penses-tu ? Une belle journée,
Mission freelance
AMOA Data Gouvernance
SMARTPOINT
Publiée le
KPI
1 an
Saint-Denis, Île-de-France
Mettre en place une organisation autour de la gestion de la donnée pour en garantir la qualité et sa bonne valorisation tout en suivant les règles de l’art en termes de data gouvernance (organisationnelle, technique, juridique etc) et d’application de la politique du Groupe sur ce périmètre. Le responsable doit comprendre les enjeux métier des données ainsi que les contraintes opérationnelles autour de ce domaine afin de déployer cette organisation chez DRC. Description détaillée des tâches qui constituent la mission: Le Responsable « Data Gouvernance » intervient plus spécifiquement sur trois missions principales : Définition d’une stratégie de gouvernance de la donnée: a. Réalisation d’un état des lieux b. Identification et catégorisation des différents périmètres de données à adresser c. Priorisation des actions à mener d. Définition d’une organisation et outils nécessaires à une gouvernance optimale des données e. Garantir la bonne sécurisation des données f. Garantir la bonne application de la politique Data SNCF pour DRC g. Garantir la conformité juridique de nos données Garantir la qualité des données: a. Mise en place de l’organisation, outils et KPI de suivi issus de la stratégie afin de garantir la qualité de la donnée b. Suivre opérationnellement les indicateurs de qualité de la donnée et mettre en place des actions de correction des données si besoin Valorisation de la donnée: a. Être le point d’entrée des métiers DRC (offres, exploitations, relations clients etc) pour répondre à des besoins via l’exploitations de la donnée b. Réalisation d ‘étude ad hoc en fonction des besoins métiers c. Etre force de proposition pour valoriser nos données via de nouvelles pratiques ou outils d. Préparer nos bases de données pour l’intégration de cas d’usage nécessitant des IA génératives
Offre d'emploi
Expertise Kafka / DATA ENGINEERING
Digistrat consulting
Publiée le
Apache Kafka
ELK
3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Expert kafka 💡Description détaillée Le contexte de la mission : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA 💡Principales technologies utilisées : • Kafka => IMPERATIF • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Mission freelance
Senior Data Analyst
CAT-AMANIA
Publiée le
Databricks
DBT
Github
1 an
100-460 €
Lille, Hauts-de-France
Au sein de l'équipe Advanced Analytics dédiée à l'économie circulaire, nous recherchons un Data Analyst spécialisé sur le business model de la Location afin de nous accompagner sur notre stratégie prix. Votre mission : transformer la donnée en levier de croissance pour nos offres d'abonnement et de location. Objectifs et livrables → Partenariat Business & Produit : transformer des problématiques complexes en opportunités actionnables et optimiser nos outils d'aide à la décision. → Stratégie Prix : analyser les mécaniques de prix et optimiser l'efficience tarifaire spécifiquement pour les offres de location → Frameworks scalables : concevoir des cadres d'analyse robuste et reproductibles pour extraire un maximum de valeur de l'écosystème rental en assurant la fiabilité des insights. → Opportunités & Signaux Faibles : Identifier et quantifier de nouveaux leviers de croissance pour nos produits ou services via l'exploration de données internes ou externes, pour anticiper les tendances du marché. → Pilotage de la Performance : Analyser les parcours clients (conversion, churn, durée des abonnements...) et la rentabilité pour aligner nos prix sur la valeur perçue. → Excellence Collective : contribuer à l’amélioration continue des standards de l’équipe
Mission freelance
tech lead java angular
Freelance.com
Publiée le
Angular
Apache Kafka
Apache Maven
1 an
510-590 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Agile organisée en train SAFe, nous recherchons un Tech Lead Java JEE confirmé pour intervenir sur des applications critiques liées à la gestion et à la facturation. Intégré à une équipe dynamique pilotée par un Product Owner et un Scrum Master, vous jouerez un rôle central dans la conception, la réalisation et l’amélioration continue des solutions. Vous serez le référent technique de l’équipe, garant de la qualité, de la sécurité et de la cohérence des développements. À ce titre, vous : Pilotez les orientations techniques et veillez au respect des standards d’architecture Assurez la mise en œuvre des exigences non fonctionnelles (performance, sécurité, résilience) Contribuez activement aux développements (correctifs, évolutions, enablers techniques) Supervisez les pipelines CI/CD et l’automatisation des tests Participez aux rituels Agile et aux échanges inter-équipes Portez les pratiques DevSecOps et améliorez en continu les processus Garantissez la qualité des livrables et le suivi en production Intervenez sur les problématiques de sécurité et de vulnérabilités Accompagnez l’équipe dans la montée en compétences techniques
Mission freelance
Enterprise Architect – Data Mesh
Signe +
Publiée le
Data Mesh
12 mois
660 €
Toulouse, Occitanie
🎯 MISSIONS Implémenter une architecture Data Mesh au sein d'un SI industriel complexe Concevoir la Data Service Layer (couche de services de données) Produire les dossiers d'architecture (cibles, patterns, gouvernance) Définir les standards de la donnée orientée domaine Accompagner les équipes produit dans l'adoption du modèle Data Mesh Assurer l'alignement avec les contraintes sécurité & conformité 👤 PROFIL RECHERCHÉ Enterprise Architect confirmé – spécialisation Data Mesh Expérience sur des environnements grands comptes / industrie appréciée Maîtrise des concepts : Data Domain, Data Product, Self-serve platform, Federated governance Compétences en rédaction de dossiers d'architecture Capacité à intervenir en autonomie dès le démarrage
Offre d'emploi
Testeur Data confirmé
SARIEL
Publiée le
Azure
Databricks
Google Cloud Platform (GCP)
12 mois
40k-53k €
320-420 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne (dans le 92) un testeur Data confirmé (4-10 ans d’expérience). Objectif Global : Testeur confirmé avec compétences Data Analyste Contrainte forte du projet Remplacement d'un prestataire en fin de mission Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks ou GCP ou big Query- Confirmé - Important Environnement azure microsoft - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data pour notre client. En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data et serez rattaché à la squad. Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : - Participer aux ateliers/rituels agiles - Réaliser la stratégie de test - Identifier et réceptionner les environnements de test - Analyser et évaluer les cas d'usage/User Story - Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données - Exécuter les cas de tests - Créer et suivre les défauts avec les différentes parties prenantes - Maintien du référentiel de test - Réaliser le PV de recette - Présentation des sujets en CAB pour passage en production - Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité. Savoir Faire : - Expérience minimum de 4 ans en tant que QA avec des compétences de data analyste - Profil technico fonctionnel - SQL Server - JIRA/XRAY - Environnement Microsoft azure - DataBricks ou GCP ou big Query - Utilisation de l'IA dans les tests (Génie Code) - Outils de reporting Power BI, Microstratégy Savoir Etre : - Collaboratif - Entraide - Force de proposition - Implication/Engagement - Amélioration Continue - Communication fluide - Qualité organisationnelle Définition du profil ORGANISATION ET CONCEPTION DES TESTS Contribue à l'élaboration de la stratégie de tests avec le Test Lead, en lien avec les Chefs de Projets et/ou Responsables d'applications Analyse les exigences utilisateurs et les spécifications fonctionnelles ou techniques fournies par le Responsable d'application Estime les charges DÉROULEMENT ET REALISATION DES TESTS En fonction de la stratégie établie, rédige les plans de tests, identifie les prérequis et spécifie les jeux de données (données de tests, résultats attendus) qu'il fait valider par le CP et/ou Responsable d'Application Réceptionne son environnement de tests et s'assure de sa conformité en termes de versions applicatives Exécute les tests manuellement ou en utilisant des outils d'exécution automatique des tests Consigne les résultats de tests et remonte les anomalies au Chef de Projet et/ou Responsable d'application Met à jour le référentiel de tests Peut coordonner une équipe d'analystes de test en tant que référent SYNTHESE DES TESTS Réalise un bilan des tests effectués Date de démarrage 08/06/2026 Lieu de réalisation CHATILLON (92) Déplacement à prévoir non Le projet nécessite des astreintes Non Nombre de jours souhaitables sur site 3 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Data Engineer Semarchy (H/F)
CELAD
Publiée le
36k-42k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Mission freelance
Data Engineer Semarchy (H/F)
CELAD
Publiée le
1 an
370-400 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Mission freelance
Data Governance Manager (Stewardship & Adoption)(H/F)
Freelance.com
Publiée le
Big Data
5 mois
360-440 €
Bordeaux, Nouvelle-Aquitaine
Objectif de la mission Structurer, déployer et faire adopter la gouvernance data au niveau opérationnel, en mettant en place une communauté de Data Stewards et en rapprochant les équipes data des métiers. 🧩 Ce que vous allez faire concrètement Vous intervenez dans un rôle transverse , orienté cadre, adoption et animation , et non comme Data Steward opérationnel. 🔹 Structuration de la gouvernance Définir et déployer le modèle de Data Stewardship (rôles, responsabilités, rituels) Clarifier les interactions entre Data Owners, Data Stewards, équipes data et techniques 🔹 Animation & adoption Créer et animer une communauté de Data Stewards Accompagner la conduite du changement Développer l’usage des outils de gouvernance (catalogue, documentation…) 🔹 Onboarding & outils Construire les kits, standards et supports pour les Data Stewards Accélérer la documentation des assets data 🔹 Alignement métier & data Organiser des ateliers avec les équipes métiers Identifier les irritants et besoins Structurer et prioriser un backlog transverse 🔹 Intégration dans les projets Intégrer la gouvernance dès les phases de cadrage (“governance by design”) Étendre la couverture du data catalog (y compris sur des sujets IA) ⚙️ En résumé C’est une mission de pilotage et d’animation de la gouvernance data , avec un fort enjeu d’ adoption, de structuration et d’impact métier , dans un environnement déjà outillé.
Mission freelance
Senior data analyst
Mon Consultant Indépendant
Publiée le
Data analysis
12 mois
540-590 €
Bruxelles, Bruxelles-Capitale, Belgique
Compétences principales attendues : Projet : analyse des besoins clients, proposition de solutions techniques, conception et rédaction de spécifications, tests. Suivi de la mise en œuvre jusqu’à la livraison : coordination des parties prenantes IT, Métier etc., veiller au respect des contraintes de budget, de qualité et de délais. Support et amélioration continue : rester à jour sur les bonnes pratiques du secteur et les technologies émergentes. Fournir un support opérationnel aux utilisateurs finaux, notamment en analysant et en résolvant les problèmes liés aux données et au reporting lorsqu’ils surviennent. IT : Les principales applications sont Datahub, Bloomberg, Markit, Adjuto, Salesforce, Databricks, Microsoft Azure Logic Apps, RabbitMQ et des applications internes. Expérience avérée en tant que développeur ou dans un rôle similaire, idéalement dans un environnement de conseil ou de services financiers. Bonne compréhension des concepts d’architecture data et expérience de travail avec Datahub ou des plateformes similaires de Master Data Management. Bonne compréhension des marchés privés et/ou de la gestion d’actifs alternative est fortement souhaitée. Anglais courant.
Mission freelance
Data Quality Engineer Senior
INFOGENE
Publiée le
Bloomberg
Data Engineering
Data quality
6 mois
500-1k €
Paris, France
Contexte & Enjeux Les données de marché de référence (futures, yields, FX, indices, obligations) présentent de nombreuses anomalies non détectées, non tracées et souvent corrigées manuellement. Cette situation entraîne une perte de temps significative et impacte la confiance des équipes Research & Prediction. Objectif de la mission Structurer, fiabiliser et industrialiser les contrôles de qualité sur les données de marché, avec une approche à la fois technique et analytique. Les 3 axes principaux 1. Audit Cartographie complète des contrôles existants Identification des gaps par classe d’actifs Construction d’un backlog priorisé 2. Implémentation Développement d’une librairie modulaire de quality checks en Python Remédiation des données historiques Gestion des escalades avec les fournisseurs de données (Bloomberg) 3. Industrialisation & IA Mise en place d’un monitoring automatisé (dashboards KPI, alerting) Industrialisation des contrôles en production Réalisation d’un POC basé sur des LLMs pour : Génération semi-automatique de contrôles Analyse des causes racines des anomalies
Mission freelance
Data Engineer Sénior (H/F)
Sapiens Group
Publiée le
Agile Scrum
Apache Spark
BigQuery
12 mois
550-580 €
Île-de-France, France
Missions principales Vous contribuerez à la construction et à l’évolution de la plateforme Data afin de garantir la collecte, la centralisation, la gouvernance et la fiabilité des données. Vos responsabilités Participer activement aux phases de conception, planification et réalisation des sujets techniques avec l’équipe Concevoir, développer et maintenir des pipelines data robustes, performants et scalables Centraliser et intégrer des sources de données hétérogènes Structurer et optimiser les solutions de stockage des données Garantir la qualité, la conformité et la sécurité des données Déployer et maintenir des infrastructures cloud évolutives sur GCP Mettre en place et maintenir les workflows CI/CD Accompagner les équipes dans l’exploitation et le requêtage des données Participer aux initiatives de gouvernance des données Contribuer à l’amélioration continue des bonnes pratiques Data Engineering Assurer la stabilité, la sécurité et l’évolutivité des environnements techniques Participer aux communautés et instances Data Engineering Maintenir une documentation technique claire et à jour Réaliser une veille technologique active sur les sujets Data & Cloud Environnement techniqueLangages & Frameworks Python SQL Spark Cloud & Data Platform Google Cloud Platform (GCP) BigQuery Dataproc Pub/Sub Cloud Storage Dataplex Universal Catalog Data Engineering & Orchestration Airflow Delta Lake Infrastructure & DevOps Terraform Terragrunt GitLab GitLab CI/CD Méthodologies Agile Scrum Kanban
Mission freelance
Data Engineer Senior
Comet
Publiée le
Azure
Data Lake
Pandas
24 mois
400-650 €
Paris, France
Objectifs et livrables Dans le cadre du lancement de notre nouveau projet, nous recherchons une prestation de Data Engineer senior pour concevoir et mettre en œuvre des pipelines de données dans un environnement serverless exigeant. Le prestataire Data Engineer senior doit être capable de produire, mais aussi de comprendre les enjeux métier, de cadrer les sujets en amont, de faire les bons choix de conception et de diffuser son savoir-faire au sein de la squad. Missions principales : Concevoir et développer des pipelines de données en Python Implémenter des traitements batch et des orchestrations via Azure Durable Functions Manipuler des données volumineuses, notamment au format Parquet Mettre en place des validations de schémas et des contrôles de qualité de données Assurer l’intégration avec des APIs externes Participer à la modélisation et à l’optimisation des bases Azure SQL Mettre en œuvre l’observabilité de la solution : traces, métriques, logs Industrialiser les déploiements via CI/CD • Garantir la qualité et la sécurité du code Contribuer à l’analyse des besoins et au cadrage des sujets avant implémentation Porter une réflexion de conception sur les choix techniques, les compromis et la maintenabilité Utiliser l’IA comme un levier d’ingénierie concret : accélérer l’exécution, explorer des options, challenger des choix, améliorer la qualité et gagner en efficacité, sans déléguer la réflexion ni baisser le niveau d’exigence Partager ses pratiques, expliciter ses choix et contribuer à la montée en compétence de la squad Travailler efficacement dans un environnement international, y compris en anglais sur des sujets techniques et de conception Profil recherché : Capable de comprendre rapidement les enjeux métier et de les traduire en solutions robustes et pragmatiques Capable de penser le problème avant de se focaliser sur l’implémentation Doté d’une vraie expertise d’ingénierie et de conception, au-delà de la seule maîtrise d’un langage, d’un framework ou d’une version spécifique Capable d’utiliser les outils d’IA de manière avancée, critique et pertinente, et non comme un simple générateur de code Proactif, précis et honnête sur ses capacités, ses limites et les risques associés à ses choix Capable de produire de la synthèse utile à la décision Attiré par l’immersion dans les sujets, le partage, la transmission et le travail transverse Compétences requises : Langage : Python Cloud : Expérience des Azure Functions, notamment Durable Functions v2 Capacité à récupérer et exploiter des données depuis différentes sources Azure : Data Lake, Blob Storage, Azure DB Data processing: Pandas Polars PyArrow Langues : Bon niveau d’anglais, permettant de participer de manière autonome à des échanges techniques et de conception, à l’écrit comme à l’oral La valeur attendue réside aussi dans la capacité à comprendre les enjeux, concevoir les bonnes solutions, utiliser l’IA avec discernement, expliciter les choix et faire progresser l’équipe. Compétences demandées PYTHON - Expert POLARS - Confirmé PYARROW - Confirmé PANDAS - Confirmé Fonctions Azure - Expert Niveau de langue Anglais - Courant
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2001 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois