Trouvez votre prochaine offre d’emploi ou de mission freelance Data quality à Paris
Votre recherche renvoie 20 résultats.
Mission freelance
Data Engineer Advanced (Scala / Spark / AWS)
Publiée le
Apache Spark
AWS Cloud
AWS Glue
1 an
Paris, France
Télétravail partiel
Contexte Nous recherchons un Data Engineer confirmé à senior pour intervenir au sein d’un grand groupe international du secteur de l’énergie . La mission s’inscrit dans un environnement data critique , lié à l’exploitation de données de marché et à la production d’indicateurs et d’alertes à forte valeur métier. Le système cible repose sur une architecture batch Big Data structurée selon une architecture médaillon (Silver / Gold) , avec ingestion multi-sources, normalisation, calculs avancés et distribution des données vers différents consommateurs métiers. Localisation : Paris (hybride) Durée : 12 mois renouvelables (jusqu’à 3 ans) Objectifs de la mission Concevoir et développer des pipelines d’ingestion et de transformation en Scala Spark Traiter, dédoublonner, normaliser et structurer des données de marché Refactoriser des imports existants afin de les rendre conformes à l’architecture médaillon Silver layer : données dédoublonnées, normalisées et structurées Gold layer : génération d’agrégats métiers (carnets d’ordres, best bid/ask, OHLC, etc.) Implémenter et challenger les règles métier en garantissant les performances, la scalabilité et la maîtrise des coûts cloud Mettre en place et maintenir les règles de Data Quality (ex. Great Expectations) et contribuer au data catalog Participer à l’amélioration des frameworks communs : monitoring, CI/CD, tests, performance, résilience et standards de développement Rédiger et maintenir la documentation technique (architecture, flux, schémas, infrastructure) Environnement technique ETL / Compute : Scala, Spark (batch) Cloud AWS : Glue Jobs, S3, Lambda, Step Functions Qualité des données : Great Expectations ou équivalent DevOps / CI-CD : Git, pipelines, bonnes pratiques d’industrialisation Environnement applicatif connexe : API REST, services backend Compétences complémentaires appréciées : Python, React Important : cette mission ne s’appuie pas sur des solutions managées de type Databricks. Compétences requisesIndispensables Minimum 5 ans d’expérience significative en Scala et Spark Expérience confirmée sur des projets Big Data / ETL à forte volumétrie Expérience pratique sur AWS (Glue, S3, orchestration) Bonne culture DevOps Autonomie, rigueur, capacité à être force de proposition Appréciées Python Développement API Connaissances de base en market data / trading (non bloquant) Process de sélection Entretien Teams de 30 minutes axé sur les expériences professionnelles Entretien Teams d’une heure axé sur les compétences techniques avec un Data Engineer de l’équipe Modalités de réponse Merci de transmettre : CV, disponibilité, TJM, localisation et un résumé des expériences Scala / Spark / AWS Glue .
Offre d'emploi
Business Analyst IFRS9 (H/F)
Publiée le
Business Analyst
IFRS 9
Workday
2 ans
40k-47k €
400-500 €
75019, Paris, Île-de-France
Télétravail partiel
Nous cherchons un (e) Business Analyst IFRS9 capable de coordonner les équipes Risque, Finance, Data et IT pour la mise en œuvre, la maintenance et l’évolution des processus liés à la norme IFRS9, au risque de crédit et au reporting réglementaire (COREP / Bâle III / Bâle IV). Le poste garantit la qualité, la cohérence et la conformité des données utilisées pour le calcul des provisions IFRS9 et des RWA. Responsabilités principales Analyser et formaliser les besoins métiers IFRS9, risque de crédit et reporting prudentiel (COREP, FINREP, Bâle III/IV) Rédiger les spécifications fonctionnelles et User Stories (Agile / Scrum) Participer aux ateliers fonctionnels avec les équipes métier : Risque, Finance, Modélisation, Data Définir et contrôler les règles de gestion pour PD, LGD, EAD et provisions IFRS9 Contrôler la qualité, la complétude et la traçabilité des données (data lineage, data quality) Préparer et exécuter les tests de recette : fonctionnelle, intégration, non-régression Valider les résultats avant mise en production (MEP) et assurer le support post-déploiement Contribuer à la production et à la fiabilité des reportings réglementaires (COREP / RWA) Participer à l’amélioration continue des processus IFRS9 / Bâle et à la veille réglementaire Environnement technique et fonctionnel Réglementaire : IFRS9, Bâle III / IV, COREP, FINREP Risque de crédit : PD, LGD, EAD, RWA, Stages 1/2/3, ECL Méthodologie : Agile / Scrum (backlog, sprints, user stories, tests, MEP) Outils : SQL, SAS, Python (contrôles et extractions), JIRA, Confluence, Excel avancé Data : Datawarehouse Risque/Finance, data quality, automatisation reporting
Mission freelance
Data analyst
Publiée le
SQL
12 mois
400-500 €
Paris, France
Télétravail partiel
Cherry pick est à la recherche d'un Data analyst pour l'un de ses clients dans le secteur de l'énergie. 🎯 Objectifs de la mission Travailler en collaboration directe avec le Data Lead TGP , les BPO , les Data Domain Owners et les équipes achats afin de : Développer et maintenir le backlog des cas d’usage Data Quality . Paramétrer l’outil Tale of Data pour identifier les anomalies, rapprocher les données provenant de différents systèmes achats et produire les outputs attendus. Suivre et améliorer en continu le niveau de qualité des données à l’aide d’indicateurs fiables et automatisés. Accompagner les équipes dans la conduite et le pilotage des campagnes de nettoyage . Être force de proposition sur l’amélioration des processus, formats et traitements des données. 📌 Responsabilités & Livrables attendus 1. Gestion des cas d’usage Data Quality Identifier et co-construire les cas d’usage avec les BPO et Data Domain Owners. Maintenir et prioriser le backlog (nouveaux besoins, évolutions, corrections). 2. Paramétrage de l’outil Tale of Data Configurer les règles de contrôle qualité (contrôles automatiques, seuils, business rules). Réaliser les rapprochements de données entre les différents outils achats. Produire les livrables opérationnels : listes d’erreurs, fichiers de référentiels, exports de données, emails d’alertes automatiques. 3. Production de KPI Data Quality Définir et documenter les indicateurs de qualité par périmètre. Construire des dashboards permettant le suivi régulier de la qualité des données. 4. Support aux campagnes de nettoyage Préparation et communication des jeux de données à nettoyer. Suivi de l’avancement et relances auprès des équipes concernées. Consolidation des résultats et reporting. 5. Amélioration continue & Expertise Recommander des améliorations sur la structuration des données, les processus de traitement ou la gouvernance. Proposer des optimisations sur l’utilisation de l’outil Tale of Data.
Mission freelance
Expert Talend / Talend Data Integration Specialist
Publiée le
ETL (Extract-transform-load)
Talend
12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Compte Autoentrepreneur - Création ou modification
- Micro-entreprise après EURL ?
- Votre avis retour à la formation face au marché IT et arrivée de l'IA ?
- Projet d’enseignement création de parcours de formation/centre formation
- Besoin de vos avis : projet innovant VTC
20 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois