L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 788 résultats.
Mission freelance
Data Engineer Python/PySpark/Databricks / AWS
Publiée le
AWS Cloud
Databricks
PySpark
218 jours
400-610 €
Paris, France
🚨 Mission Freelance – Data Engineer 🚨 🚫 Pas de sous-traitance Je recherche un·e Data Engineer (Python / PySpark / Databricks / AWS) pour une mission stratégique au sein d’un grand groupe international dans l’énergie 🔋 📍 Paris – 3 jours sur site / 2 jours remote 🕐 Démarrage : 08/12/2025 💰 TJM selon profil Process : Codingame puis live coding 🔥 Ce qui t’attend : ✅ Mission longue durée ✅ Participation à la conception & à la mise en production d’architectures data déployées à l’échelle internationale 🌍 ✅ Environnement technique exigeant, méthodologie robuste & contexte multi-pays 🧠 Stack technique recherchée : Python ⭐⭐⭐⭐ (Expert) PySpark ⭐⭐⭐⭐ (Expert) Databricks ⭐⭐⭐ (Confirmé) Cloud AWS ⭐⭐⭐ (Confirmé) Bonus : culture data engineering avancée, industrialisation, bonne compréhension des architectures distribuées. 📩 Intéressé·e ? 👉 Envoie-moi ton CV en MP ⚠️ Seuls les profils correspondant strictement au besoin seront recontactés.
Mission freelance
Data Analyst
Publiée le
Data analysis
Microsoft Power BI
Python
6 mois
Centre-Val de Loire, France
Télétravail partiel
TEKsystems recherche pour le compte de son client : Un Data analyst/Power BI L’objectif est d’optimiser les processus internes, améliorer la connaissance client, et soutenir les décisions stratégiques à travers la donnée. Missions principales Collecter, nettoyer et structurer les données issues de différentes sources (internes et externes) Réaliser des analyses exploratoires et statistiques pour identifier des tendances, anomalies ou leviers d’optimisation Construire des dashboards interactifs et automatisés (Power BI, Tableau, etc.) Collaborer avec les équipes métiers (actuariat, marketing, gestion des sinistres) pour traduire les besoins en analyses concrètes Participer à la mise en place de modèles prédictifs en lien avec les Data Scientists Documenter les processus et assurer la traçabilité des traitements
Mission freelance
Product Owner Data
Publiée le
Data science
MLOps
Product management
12 mois
500 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Product Owner Data" pour un client dans le secteur de l'assurance Description Contexte de la mission Au sein du groupe, la Direction des Systèmes d’Information Métier assure la maintenance et l’évolution du système d’information assurance vie et finance. Dans le cadre de la stratégie de transformation Data 2025–2026 , le groupe renforce son équipe de développement Data et recherche un Product Owner Data expérimenté . Rattaché(e) au Centre de Data Management , vous serez un acteur clé du déploiement des cas d’usage Data et de la valorisation de la donnée. Votre rôle consistera à identifier, prioriser et piloter les produits Data (RPA, IA, Data Science, MLOps, DataViz) en lien avec les directions métiers (actuaires, conseillers, gestionnaires, etc.) et les équipes techniques. Vous interviendrez sur l’ensemble du cycle de vie des produits, de la détection des besoins métiers jusqu’à la mise en production, dans une approche orientée valeur et amélioration continue. Objectifs et livrables Placer la valeur au centre des usages Data : challenger les directions métiers sur leurs besoins quotidiens et leurs priorités. Animer les comités Data et les ateliers de cadrage autour des sujets Data Science, IA, RPA et MLOps. Identifier les besoins techniques et fonctionnels en lien avec les domaines Data (RPA | IA | Data Science | MLOps | DataViz). Définir les éléments de valeur (quantitatif, qualitatif, expérience collaborateur) et produire les supports de cadrage associés. Accompagner la rédaction et la priorisation des solutions Data et IA. Définir, suivre et piloter les indicateurs de performance (KPIs) des produits livrés. Contribuer à la construction d’une culture Data IT forte au sein du groupe. Être force de proposition sur les orientations techniques, fonctionnelles et méthodologiques.
Offre d'emploi
Lead Data Scientist / IA (H/F)
Publiée le
55k-60k €
51100, Reims, Grand Est
Télétravail partiel
Directement intégré a une petite équipe et en qualité de Lead Data Scientist intervenant sur des sujets IA, vos missions seront les suivantes : - Concevoir, développer et industrialiser des solutions IA/ML orientées prévision et détection d'anomalies. - Développer et évaluer des modèles de séries temporelles, de régression et de détection d'anomalies, en assurant robustesse et suivi des performances. - Construire des pipelines de traitement de données (collecte, nettoyage, enrichissement de features) et manipuler des bases SQL ainsi que des données volumineuses et variées. - Mettre en oeuvre des solutions distribuées pour garantir la scalabilité des traitements et modèles. - Créer et automatiser des dashboards pour valoriser la donnée et accompagner la prise de décision des métiers. - Appliquer les bonnes pratiques de développement (qualité de code, tests, documentation) et contribuer au suivi et à l'industrialisation des modèles en production.
Mission freelance
Architecte Data - Toulouse
Publiée le
Architecture
AWS Cloud
Big Data
6 mois
Toulouse, Occitanie
Environnement technique de la prestation À la suite d’une réorganisation interne ayant entraîné le départ de collaborateurs clés, le client fait face à une perte de maîtrise opérationnelle de sa plateforme Data. Cette dernière, incluant les services BI (Data Warehouse et Power BI), est désormais considérée comme un service critique, avec une exigence de disponibilité et de performance 24/7. Cette évolution s’accompagne d’une sollicitation accrue de la plateforme et d’une consommation continue des données, nécessitant une réactivité renforcée et une supervision proactive. Prestation attendue La mission consistera à travailler sur : Frameworks d’ingestion et restitution : Définir les standards pour ingestion (batch, streaming, CDC) et restitution (API, BI, data services). Vision AS IS > TO BE Framework « Observabilité & qualité des données » : Définir métriques et roadmap pour monitorer la qualité des données critiques, en lien avec une initiative déjà lancée avec SODA. Monitoring des flux & santé de la plateforme : Contribuer à la mise en place des indicateurs et outils pour surveiller la performance et la disponibilité des pipelines, service et ressources de la plateforme. (en lien avec le plan de robustification déjà lancé et les travaux menés en parallèle sur la partie FinOps) Plan de migration SSIS + SQL Server → Snowflake : Définir la méthodologie (phases, outils, patterns). Identifier les risques et dépendances. Stratégie d’Access Management : (priorité 2) Définir les rôles, politiques RBAC/ABAC. Garantir la conformité avec les standards de sécurité et gouvernance. Tous éléments de documentation jugés nécessaires pour sécuriser la gestion quotidienne et évolutive de la plateforme : des travaux de retro-documentations pourraient être réalisés afin d’illustrer les écarts VS état de l’art. Ces activités mèneront à la production des livrables ci-dessous : Documentation des frameworks ingestion & restitution(As is > To be). Plan d’observabilité & qualité des données (métriques, outils, roadmap). [CONTRIBUE]Tableau de bord pour monitoring des flux et santé plateforme. Plan de migration (méthodologie, roadmap, estimation effort). Stratégie d’Access Management (modèle de rôles, règles d’accès). Formaliser la feuille de route opérationnelle 2026+ avec le data architect déjà en place pour limiter les écarts avec l’état de l’art.
Offre d'emploi
Data Engineer Python / AWS
Publiée le
AWS Cloud
PySpark
Python
3 ans
Paris, France
Descriptif du poste Le prestataire interviendra comme développeur senior / Data Engineer sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series. Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Conception et développement d'outils d'aide à la décision • Conception et développement de nouvelles architectures data • Collecte, ingestion, traitement, transformation et restitution des données (météo, fundamentales..) • Optimisation des coûts et des performances • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Maintenance évolutive et support technique / accompagnement des utilisateurs (analystes, data scientists...) • Coaching de l'équipe autour des thématiques Big Data et AWS : workshops, présentations…
Offre d'emploi
Développeur Back-End PHP/Symfony Sénior- Sophia Antipolis (H/F)
Publiée le
Apache Kafka
CI/CD
Docker
3 mois
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte Notre client final recherche un Développeur Back-End PHP/Symfony Sénior pour intervenir sur des projets stratégiques liés à la GED et à l’identité numérique. La mission inclut la conception et l’implémentation d’API REST sécurisées, l’optimisation des flux de traitement (forte volumétrie, asynchronisme), ainsi que la participation aux choix d’architecture (microservices, performance, observabilité). Le développeur aura un rôle clé dans l’industrialisation (CI/CD, monitoring, tests), la qualité logicielle et l’accompagnement des profils juniors. Missions principales 📌 Développement & architecture Concevoir et implémenter des API REST robustes et sécurisées (JWT, OAuth2). Intégrer et optimiser les systèmes GED (indexation, recherche, archivage, workflows). Mettre en place et optimiser les pipelines de traitement de flux (import/export volumineux, RabbitMQ/Kafka). Contribuer aux choix d’architecture (microservices, découplage, scalabilité). Garantir la qualité du code (clean code, design patterns, DDD). 📌 Qualité & industrialisation Écrire et maintenir les tests unitaires, fonctionnels et end-to-end (PHPUnit, Behat, Postman). Participer à l’industrialisation via CI/CD, Docker, Kubernetes, GitLab/Jenkins. Assurer le monitoring, logging et la performance de la stack technique. Rédiger la documentation technique et fonctionnelle. 📌 Collaboration & leadership technique Accompagner et encadrer les développeurs plus juniors (code review, mentorat). Travailler en équipe pluridisciplinaire (Produit, QA, DevOps, Frontend). Participer à la veille technologique (cloud-native, scalabilité, sécurité). 📦 Livrables attendus Code conforme aux spécifications Documentation technique associée Conception et tests unitaires validés 🛠️ Compétences recherchées PHP 8.x / Symfony 6.4, 7.x – Expert, impératif SQL (PostgreSQL) – Confirmé, impératif Elasticsearch / OpenSearch – Confirmé, souhaité Systèmes de messagerie : RabbitMQ, Kafka, Symfony Messenger Caching : Redis, Varnish, APCu CI/CD, Docker, Kubernetes – Confirmé Tests : PHPUnit, Behat, Postman/Newman Méthodologies : DDD, Clean Architecture, Design Patterns Bonus : standards de dématérialisation et archivage légal
Offre d'emploi
DATA ENGINEER MSBI / GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
MSBI
6 mois
40k-45k €
400-550 €
Paris, France
Contexte du poste Dans le cadre d’un programme de migration des solutions décisionnelles Microsoft vers Google Cloud Platform (GCP) , nous recherchons un Consultant Data Engineer expérimenté capable d’assurer la transition technique et fonctionnelle d’un environnement MSBI on-premise vers un écosystème GCP cloud-native . L’objectif est de moderniser la plateforme BI existante (SSIS, SSAS, SQL Server) vers des architectures Cloud basées sur BigQuery , Dataflow , Cloud Storage et Looker Studio , tout en garantissant la continuité des flux , la performance et la qualité des données . Missions principales Participer aux ateliers de cadrage technique et fonctionnel pour définir la stratégie de migration MSBI → GCP. Analyser l’existant MSBI (packages SSIS, cubes SSAS, rapports SSRS / Power BI) et identifier les dépendances techniques. Concevoir la nouvelle architecture cible GCP (BigQuery, Dataflow, Composer, Cloud Storage, IAM). Assurer la migration et la réécriture des flux ETL vers GCP (Dataflow / DBT / Python). Mettre en place les pipelines d’intégration continue et les jobs d’orchestration (Airflow / Cloud Composer). Optimiser les performances et les coûts d’exécution des traitements cloud. Garantir la gouvernance, la sécurité et la qualité des données dans le nouvel environnement. Accompagner les équipes internes dans la montée en compétences sur GCP . Compétences techniques requises Environnements Microsoft : SQL Server (T-SQL, procédures stockées, optimisation requêtes) SSIS (conception de flux ETL complexes) SSAS (tabular / multidimensionnel) Power BI / SSRS pour la partie reporting Environnements Google Cloud : BigQuery (datawarehouse cloud, modélisation, partitionnement, optimisation) Dataflow / Cloud Composer (orchestration et traitement de données) Cloud Storage, Pub/Sub, IAM Looker Studio pour la restitution Autres atouts : Connaissance de DBT , Python , ou Terraform Notions de DataOps , CI/CD , gouvernance des données Expérience sur des projets de migration cloud (Azure, AWS, ou GCP)
Offre d'emploi
Data Engineer T-SQL (Sqlserver 2019) - 6 ans d'expérience minimum
Publiée le
SGBD
SQL
Transact-SQL
6 mois
Paris, France
Télétravail partiel
L’infocentre commercial de la Banque a pour rôle de collecter (depuis les systèmes front, pour tous les produits), normaliser, enrichir les données (depuis des référentiels) et créer/générer des analyses de l’activité commerciale de la Salle des Marchés à l’aide de différents outils décisionnels. L’infocentre présente principalement 5 types de données : La performance commerciale : décomposée en une partie client et une partie vendeur Hit Ratio : les demandes de prix électroniques, récupérées des plateformes La trésorerie : calculée en fonction des opérations effectuées par la Salle des Marchés CRM : données de meeting, contacts, etc. fournies par l’outil CRM interne Réglementaire (post-trade) : afin de lever des alertes au Front Par ailleurs, l’infocentre est branché à de nombreux référentiels et applications, ce qui permet de fournir différents axes d’analyses de la donnée aux utilisateurs. L'équipe est divisée en plusieurs Business Lines : Salle des Marchés ; Commercial ; Conformité ; Onboarding. Ces Business Lines sont composées de profils Business Analyst, Développeur & BI, organisés en équipe Agile. Les équipes sont principalement localisées en France (80%) et au Portugal (20%). ment en C#
Mission freelance
Développeur Python / Vue 3 – Data & Dashboards
Publiée le
Dash
FastAPI
Pandas
3 mois
400-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Développeur Python / Vue 3 (TypeScript) pour renforcer l’équipe en charge du développement d’ outils d’analyse et de dashboards data dans un environnement technique moderne et exigeant. 🎯 Contexte de la mission : Vous participerez à la conception, au développement et à l’amélioration continue d’applications et de dashboards interactifs permettant de transformer des données complexes en insights clairs, rapides et utiles . 🧩 Stack technique principale : Backend : Python 3.13, Pandas (obligatoire), FastAPI, Dash, Streamlit, Bokeh, Polars (bonus) Frontend : Vue 3, TypeScript, Vuetify Tests : Pytest, Vitest, tests end-to-end (bonus) ⚙️ Vos missions principales : Traiter, transformer et structurer les données avec Pandas . Développer des dashboards interactifs avec Dash ou Vue.js . Concevoir et maintenir des APIs performantes avec FastAPI . Garantir la qualité du code : tests, revues, documentation et bonnes pratiques. Contribuer à l’optimisation continue des performances et de l’expérience utilisateur.
Offre d'emploi
Tech Lead Data Engineer – Big Data / Java Spark
Publiée le
Apache Spark
Big Data
Cloudera
3 ans
Paris, France
Contexte du projet : Dans le cadre d’un vaste programme de transformation digitale, CBX Group accompagne un grand acteur dans la mise en place et l’industrialisation d’une plateforme Big Data. Nous recherchons un Tech Lead Data Engineer expérimenté pour renforcer l’équipe Data et piloter la conception, le développement et la mise en production de traitements batch et temps réel, tout en encadrant les Data Engineers de la squad. Missions principales : Piloter la conception et le développement de pipelines en Spark SQL et Java Spark (batch & streaming). Définir les standards de développement et garantir la qualité technique de la squad (revues de code, bonnes pratiques, CI/CD). Concevoir et optimiser des traitements temps réel (Kafka, MongoDB, event-driven). Accompagner le design des usages Data en lien avec les Product Owners et le métier. Assurer l’optimisation et le tuning des traitements Spark pour garantir performance et scalabilité. Encadrer et coacher les Data Engineers de l’équipe, favoriser le partage de connaissances. Documenter l’architecture et les traitements dans Confluence, assurer le support et la maintenance. Participer aux rituels agiles et contribuer à la roadmap technique de la plateforme. Stack technique : Cloudera / MAPR, Java 11/17/21, Spark 2/3, Spring Boot, Kafka, MongoDB, Jenkins, Kubernetes, ArgoCD, SonarQube ; cloud GCP
Mission freelance
Data Lead Reconciliation - 8 ans d'expérience
Publiée le
Data governance
ETL (Extract-transform-load)
Migration
6 mois
500-600 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Octopus Group recherche un·e Data Lead Reconciliation - Secteur Assurance. Vous prendrez en charge les activités de rapprochement de bout en bout, incluant la validation de la migration, la mise en œuvre des pistes d'audit et l'assurance de l'exactitude des données, pour garantir l'harmonisation des systèmes client et internes. Expérience avérée en migration et rapprochement de données, dans le secteur de l'assurance et un leadership technique, ainsi qu'une expertise pratique des outils ETL, de SQL et de l'intégration de systèmes existants. Principales responsabilités : Diriger et coordonner les initiatives de réconciliation des données au sein d’équipes interfonctionnelles. Concevoir et mettre en œuvre des cadres de réconciliation pour valider des migrations de données complexes. Effectuer une analyse des causes profondes des incohérences de données et assurer la résolution sur tous les systèmes. Collaborer avec les parties prenantes du client pour aligner les exigences commerciales sur la logique de réconciliation. Guider les équipes (sur site et nearshore) dans la mise en œuvre technique des contrôles de qualité des données. Créez de la documentation, des tableaux de bord et des rapports pour les pistes d’audit et les processus de rapprochement. Soutenir la validation post-migration et l'amélioration continue des flux de travail d'intégrité des données. Valider et mettre en œuvre les règles et les mappages de transformation des données
Offre d'emploi
Data Engineer Cloud GCP BigQuery F/H
Publiée le
50k-70k €
Ivry-sur-Seine, Île-de-France
Télétravail partiel
Description de la Mission : Analyse et Conception Participer à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. Utiliser l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en oeuvre des projets. Être force de proposition sur l'amélioration de notre stack Data. Développement et Intégration Concevoir, développer et maintenir les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale. Identifier et résoudre les goulots d'étranglement et les problèmes de performances dans les flux de données. Qualité, Maintenance et Supervision Mettre en place des processus et des contrôles pour garantir la qualité des données. Concevoir et mettre en oeuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou évolutive. S'assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe. Documentation, Support, Pilotage Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation). Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le déploiement. Environnement Technique : Langages/Framework : SQL, BigQuery, Python, Shell. Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend. Base de données : BigQuery, Teradata, SQL Server, IBM DB2.
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Mission freelance
Architecte Solution Data / Monétique (H/F)
Publiée le
Monétique
3 ans
500-610 €
Île-de-France, France
Nous recherchons pour l’un de nos clients, acteur majeur du secteur bancaire, un Architecte Solution Data spécialisé dans la Monétique afin d’accompagner l’évolution de ses plateformes data dédiées aux paiements. Le domaine des paiements vit une transformation radicale : digitalisation, nouvelles normes européennes, temps réel, sécurité renforcée… Dans ce contexte, la donnée monétique est stratégique et au cœur de l’innovation. Votre mission Garantir la cohérence, la performance et la résilience des solutions Data Monétique, depuis la phase de cadrage jusqu’au déploiement en production. Vos responsabilités Définir l’architecture globale du Stream Data Monétique et ses évolutions Participer à la conception et à l’intégration des solutions sur des systèmes critiques Garantir la conformité aux normes, standards d’architecture et exigences de sécurité Assurer la scalabilité, la disponibilité et la robustesse des services délivrés Collaborer avec les équipes métier, sécurité, architecture et développement Produire la documentation d’architecture (diagrammes, flux, déploiement…) Apporter un support technique aux équipes de delivery Environnement & enjeux techniques Architectures data distribuées Event Streaming, Data Lake Cloud hybride Très forte volumétrie & haute disponibilité Performance temps réel Sécurisation des données sensibles
Mission freelance
Data Engineer GCP - Rennes
Publiée le
Agile Scrum
Apache Airflow
BigQuery
12 mois
400-540 €
35200, Rennes, Bretagne
Télétravail partiel
Contexte : Nous recherchons un Data Engineer expérimenté, pragmatique et autonome, capable de travailler sur des projets data complexes avec les bonnes pratiques agiles. Le profil idéal a déjà travaillé en mode projet, connaît le Scrum et Kanban, et sait estimer précisément la charge de travail. Profil recherché : Expérience solide en Data Engineering (pas junior). Bonne connaissance des environnements cloud, idéalement GCP . Maîtrise des outils BigQuery, DBT, Airflow, Cloud Storage . Git et CI/CD indispensables. Expérience projet avec méthodologies Agile/Scrum/Kanban , capacité à estimer le reste à faire et à planifier un sprint. Capacité à être critique sur les données et à mettre en place quality by design . Jira utilisé régulièrement pour le suivi de projet. Anglais : un plus mais pas essentiel. Expérience dans un environnement industriel ou traitement de données en temps réel (Pub/Sub) est un plus. Polyvalence et curiosité : d’autres compétences data seront appréciées. Missions principales : Conception et développement de pipelines de données robustes. Analyse critique et validation de la qualité des données. Mise en place de contrôles pour garantir l’intégrité et la fiabilité des données. Contribution à l’amélioration continue des pratiques Data Engineering et Agile de l’équipe. Processus de recrutement : Entretien avec le Tech Lead et le Chef de projet. Référencement fournisseur. Disponibilité : ASAP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Identifier les partenaires directs des Grands Groupes (sans intermédiaires)
- Quelles nouvelles fonctionnalités aimeriez-vous voir sur Free-Work ?
- Stratégie épuisement des fonds jusqu'à la retraite
- Offre archivée
- SASU est ce que le pv d'ag existe ou seulement décision de l'associ unique?
- Job Consultant Service now Suisse. 200 euros par jour!
1788 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois