L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 288 résultats.
Offre d'emploi
Data Engineer GenAI / Databricks
UCASE CONSULTING
Publiée le
AWS Cloud
Databricks
GenAI
1 an
40k-45k €
400-710 €
Île-de-France, France
Bonjour à tous 😀 🎯 Contexte : Dans le cadre du développement de ses capacités en Intelligence Artificielle Générative , nous recherchons un Data Engineer spécialisé sur Databricks pour intervenir sur des cas d’usage innovants à forte valeur ajoutée. Le poste combine des enjeux de data engineering, machine learning et mise en production dans un environnement moderne. 🛠️ Missions principales Concevoir et développer des modèles de Machine Learning (GenAI) Collecter, préparer et exploiter les données Développer des pipelines d’ingestion et de transformation Assurer la mise en production et le monitoring des modèles (MLOps) Intervenir sur des sujets d’architecture RAG et fine-tuning Conseiller sur les choix techniques et les cas d’usage 🧩 Environnement technique Python / SQL / Pandas Databricks Machine Learning / Deep Learning (LLM, Transformers) Architectures GenAI (RAG, fine-tuning) Cloud AWS MLOps
Mission freelance
Data Engineer - Migration SAS Expérimenté (450€ MAX)
BEEZEN
Publiée le
Google Cloud Platform (GCP)
SAS
1 an
340-450 €
Île-de-France, France
Dans le cadre de la stratégie de sortie du legacy, la prestation vise à traduire et à porter l’intelligence métier contenue dans les programmes SAS vers la nouvelle plateforme Data. ● Analyse du Legacy : Comprendre et documenter les règles de gestion complexes appliquées dans les codes SAS actuels. ● Migration & Transformation : Réécrire les fl ux d'extraction, de transformation et de chargement en utilisant les technologies cibles (SQL BigQuery, Python) tout en garantissant l'isopérimétrie des résultats. ● Ingestion & API : Développer de nouveaux pipelines d'ingestion via API pour remplacer les transferts de fi chiers plats traditionnels et automatiser l'alimentation du socle Data. Livrables : ● Inventaire et analyse d'impact des programmes SAS à migrer. ● Code source (Python/SQL) des nouveaux pipelines sur GCP. ● Rapports de tests de non-régression (comparaison des sorties SAS vs BigQuery). ● Documentation technique des nouveaux fl ux automatisés.
Mission freelance
MLOps / Data Engineer (Expert Dataiku)
HAYS France
Publiée le
Dataiku
MLOps
6 mois
Nouvelle-Aquitaine, France
Contexte Le domaine SI Dataplatform & BI souhaite renforcer ses capacités d’industrialisation des projets Data Science et IA. La plateforme Dataiku DSS est utilisée pour le développement des modèles ML et nécessite une expertise externe pour sécuriser leur mise en production, leur exploitation dans le temps et leur alimentation en données. La mission s’inscrit à l’interface entre l’équipe Data Science et l’équipe Dataplatform de la DSI, avec une forte orientation d’industrialisation (build & run). Objectifs de la mission Industrialiser les projets de Machine Learning développés sous Dataiku DSS Mettre en place une chaîne MLOps robuste, sécurisée et maintenable Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku Assurer le bon passage du POC à la production, puis l’exploitation dans le temps Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data Périmètre d’intervention • Projets Data Science & IA développés sous Dataiku DSS • Chaînes MLOps (entraînement, déploiement, supervision des modèles) • Connexion de Dataiku aux sources de données de l’entreprise • Environnements DEV / TEST / PROD Livrables attendus Pipelines MLOps Dataiku industrialisés et documentés Modèles ML déployés et supervisés en production Connecteurs Dataiku vers les sources de données opérationnels Documentation d’exploitation MLOps & DataOps Recommandations de standardisation et d’amélioration continue Interactions Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation
Offre d'emploi
Data Engineer GCP H/F
JEMS
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data Engineer GCP capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : prw1pbyy5v
Mission freelance
DevOps / ETL Data Engineee - Banque
STHREE SAS
Publiée le
6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site / semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Votre mission Au sein d'une équipe Agile, vous intervenez sur des projets data à forts enjeux. Votre rôle consiste à concevoir, développer et maintenir des chaînes de traitement de données fiables, performantes et sécurisées. Vous participez à l'ensemble du cycle de vie : analyse fonctionnelle et technique, développement ETL, tests et contrôles qualité, livraison et support aux équipes de production. 🛠️ Vos responsabilités Développer et paramétrer des traitements ETL Rédiger des scripts SQL et Shell Produire les livrables : code, documentation, jeux de tests Participer aux cérémonies Agile (backlog, grooming, démos) Collaborer avec les équipes IT et métiers Garantir la qualité, la performance et la conformité des solutions Contribuer à l'amélioration continue de l'équipe ✅ Profil recherché Expérience confirmée en ETL (Datastage ou équivalent) Bonne maîtrise du SQL Connaissances en Shell scripting À l'aise dans un environnement Agile Rigueur, sens des responsabilités, esprit d'équipe Anglais professionnel requis ⭐ Pourquoi rejoindre cette mission ? Environnement international et structuré Projets data critiques à forte valeur Équipe Agile mature Bon équilibre présentiel / télétravail
Mission freelance
Data Engineer Snowflake (h/f)
emagine Consulting SARL
Publiée le
1 mois
111 €
92000, Nanterre, Île-de-France
Nous recherchons un Data Engineer pour rejoindre une équipe dynamique. Ce rôle exige une expertise confirmée sur Snowflake et comprend le développement d'applications data pour explorer les insights et améliorer l'expérience client. Vos missions: Développement d’applications data pour explorer les insights et améliorer l’expérience client. Création de dashboards (Tableau) pour des analyses claires et pertinentes. Transformation et modélisation des données (dbt, Snowflake) en collaboration avec les data engineers. Optimisation des performances (rapidité, fiabilité des requêtes). Gestion des ressources cloud pour maîtriser les coûts. Conception UI/UX pour des interfaces intuitives et engageantes. Définition des exigences techniques pour la mise en production. Votre profil: Expérience Snowflake (obligatoire), Excellent sur python, SQL Tableau software gros plus Expérience de data engineer (minium 5 ans), capacité à prendre le lead, très bon communicant Anglais opérationnel Expérience souhaitée sur le traitement de données IA
Mission freelance
DevOps / ETL Data Engineer - Banque
STHREE SAS
Publiée le
6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site par semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Contexte de la mission Vous rejoignez une équipe Agile intervenant sur des projets data structurants , dans un environnement international et fortement réglementé. La mission porte principalement sur la conception, le développement et la maintenance de flux de données critiques. 🚀 Vos missions Au quotidien, vous serez amené(e) à : Réaliser des analyses fonctionnelles et techniques Concevoir et développer des traitements ETL (principalement orientés intégration) Modéliser et enrichir des bases de données Développer des scripts SQL et Shell Paramétrer les outils ETL et garantir leur bonne exécution Produire l'ensemble des livrables : code, scripts, documentation, jeux de tests Effectuer les tests et contrôles (logique maker / checker) Participer aux mises en production et au support des équipes opérationnelles Collaborer avec les équipesIT et métiers dans un cadre Agile : backlog grooming, user stories, critères d'acceptation, démos de fin de sprint Contribuer à la qualité, la performance, la sécurité et la conformité des solutions livrées Être force de proposition dans une logique d' amélioration continue ✅ Profil recherché Profil confirmé avec environ 4 à 6 ans d'expérience en environnement Data / ETL Maîtrise impérative de : ETL (Datastage ou équivalent) SQL Shell scripting Habitué(e) aux méthodes Agile À l'aise dans des environnements structurés et exigeants Capacité à travailler en équipe, sens des responsabilités, rigueur Anglais professionnel requis Une expérience en environnement bancaire ou réglementé est appréciée mais non obligatoire
Offre d'emploi
Data Engineer
TEOLIA CONSULTING
Publiée le
Google Cloud Platform (GCP)
PL/SQL
12 mois
45k-50k €
400-430 €
Lille, Hauts-de-France
Dans le cadre de sa transformation digitale, notre client, grand acteur du retail, cherche à renforcer son équipe produit Data pour faire évoluer une plateforme stratégique de gestion et d’optimisation des approvisionnements. Cette plateforme traite des volumétries importantes de données et joue un rôle clé dans la prise de décision métier . 🎯 Vos missions Intégré(e) à une équipe produit agile, vous intervenez sur : 🔧 Data Engineering (GCP) Conception et développement de pipelines ETL/ELT Traitement et intégration de données (APIs, fichiers, bases) Optimisation des performances sur BigQuery Orchestration des flux (Airflow / Composer) 🛠️ Run & support Analyse et résolution d’incidents (N2/N3) Écriture de scripts Bash pour automatisation Requêtes SQL complexes pour diagnostic et exploitation 📊 Data & monitoring Garantie de la qualité et cohérence des données Mise en place de monitoring et alerting (Grafana, outils GCP) Création de dashboards de suivi ☁️ Infrastructure & industrialisation Participation à l’IaC (Terraform) Contribution à la CI/CD (GitLab CI) Amélioration continue des pipelines et process 🧰 Environnement technique Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer) Data : SQL avancé, ETL/ELT Scripting : Bash CI/CD & IaC : GitLab CI, Terraform Monitoring : Grafana, outils GCP Bases de données : BigQuery, Oracle OS : Linux
Offre d'emploi
Data Engineer, AWS (H-F)
K-Lagan
Publiée le
Azure
Big Data
Databricks
1 an
42k-50k €
400-550 €
Nantes, Pays de la Loire
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique, innovation et accompagnement personnalisé. Aujourd’hui, nous recherchons un·e Data Engineer (F/H) pour rejoindre l’un de nos clients sur un projet stratégique autour de la data temps réel et des architectures Cloud , basé à Nantes . 🎯 Contexte Vous interviendrez sur le développement et l’optimisation de pipelines de données temps réel, dans un environnement moderne orienté Cloud et industrialisation. L’objectif : concevoir des solutions robustes, automatisées et performantes pour garantir la fiabilité et la scalabilité des flux de données. 📍 Les modalités Localisation : Nantes Contrat : CDI ou Freelance Démarrage : ASAP Conditions et rémunération ouvertes à négociation selon profil et expertise
Mission freelance
Senior Data Engineer
Signe +
Publiée le
DBT
12 mois
400-580 €
Vélizy-Villacoublay, Île-de-France
🎯 MISSIONS Concevoir et déployer des pipelines ETL/ELT performants (complets, incrémentaux, historiques) Construire et maintenir des Data Warehouses, Data Marts et cubes décisionnels Intégrer des données via API, transferts de fichiers, Data Lakes Optimiser les performances SQL et gérer les incidents en production Contribuer aux phases de cadrage / data discovery avec les parties prenantes Appliquer les bonnes pratiques dev, tests et déploiement en Agile Livrables attendus : Composants data développés et déployés (code source) Documentation technique et fonctionnelle Modèles de données documentés Rapports de tests/recette + transfert de connaissances 🛠️ ENVIRONNEMENT TECHNIQUE Obligatoire : SQL Server (Database Engine, SSIS, SSAS) Power BI / Reporting Services SQL avancé, DAX, MDX Talend et/ou SSIS (ADF apprécié) CI/CD : Azure DevOps, GitLab Architecture : Data Warehouse, Data Lake, Médaillon Apprécié : DBT, Trino, MinIO GCP (BigQuery, GCS, Dataproc) 👤 PROFIL RECHERCHÉ Senior Data Engineer avec expertise confirmée Microsoft SQL Server Expérience solide en ETL industrialisé (Talend / SSIS) Bonne maîtrise des architectures data modernes Anglais courant indispensable Méthode Agile maîtrisée
Offre d'emploi
Data Engineer - Migration Data Lake
VISIAN
Publiée le
Data Engineering
Migration
1 an
Paris, France
Contexte Le Cluster lance l'étude d'un potentiel nouveau Data Lake afin de remplacer l’infrastructure legacy par une plateforme moderne, scalable et pleinement gouvernée. Le nouveau lake s’appuiera sur une architecture Medallion et intégrera les technologies suivantes : TrinoDB, Apache Iceberg, Parquet, dbt, Argo Workflows, Apache Superset, Metabase et OpenMetadata . Missions Analyse de l’existant & migration Cartographier les sources, pipelines et jeux de données actuels (legacy, SQL, fichiers plats...). Définition de la stratégie de migration vers le nouveau lake (bronze -> silver -> gold). Conception des plans de bascule tout en minimisant les interruptions de service. Architecture & ingestion Conception des couches Bronze / Silver / Gold du nouveau Data Lake avec TrinoDB, Apache Iceberg et Parquet. Création de pipelines d’ingestion (batch & near-real-time) depuis les systèmes de crédit. Modélisation & transformation Développement des modèles de transformation dans dbt : scripts SQL, tests automatisés, documentation et versionning. Harmonisation des schémas (normes de nommage, typage, PK/UK) avec les exigences du domaine crédit. Orchestration Implémentation des workflows de migration et de rafraîchissement des données avec Argo Workflows (planification, gestion des dépendances, monitoring). Self-service & visualisation Déploiement des espaces de travail Apache Superset et Metabase pour que les analystes métier puissent créer leurs propres dashboards à partir du nouveau lake. Rédaction des guides d’utilisation et accompagnement de la montée en compétence des équipes. Gouvernance, catalogue & lineage Intégration OpenMetadata pour le catalogage automatique, le suivi du lineage et la gestion des métadonnées (description, propriétaire, sensibilité). Mise en place des processus de data ownership, de versionning et de validation. Qualité & validation Implémentation, dans les modèles dbt, des tests de qualité (not-null, unicité, règles métiers spécifiques au crédit). Mise en place des indicateurs de suivi (freshness, complétude, anomalies) et des alertes automatiques. Sécurité & conformité Application des standards de sécurité du groupe (RBAC, data-masking). Contribution aux audits internes et aux revues de conformité réglementaire. Collaboration inter-équipes Travail en étroite coordination avec les équipes métiers. Participation aux cérémonies projets et aux ateliers de design.
Mission freelance
Data engineer IA / ML Apache SPark
LeHibou
Publiée le
Apache Spark
Big Data
36 mois
500-580 €
Paris, France
Notre client dans le secteur Banque et finance recherche un Data Engineering (IA/ML) - Sénior H/F Descriptif de la mission: Data Engineering (IA/ML) - Sénior Contexte et objectif de la mission : La mission s’inscrit au sein d’une entité technologique d’un grand groupe de gestion d’actifs, responsable de la conception, du développement, de la commercialisation et du maintien de solutions technologiques pour l’industrie de l’épargne et de la gestion d’actifs. La prestation interviendra sur le socle Data/IA, en lien étroit avec l’équipe d’ingénierie de production afin d’assurer le support à l’échelle. Le consultant n’aura pas la charge de l’exploitation quotidienne, mais devra être capable d’intervenir sur des problèmes concrets, de structurer les pratiques, d’outiller les équipes et de garantir la robustesse et la scalabilité des solutions en place. Le besoin vise un profil à la fois opérationnel et capable de conseil. Missions principales : Expertise opérationnelle sur les plateformes Data/IA • Challenger et améliorer concrètement les plateformes d’orchestration et de requêtage distribué : diagnostic des problèmes de performance, optimisation des configurations, revue des patterns d’utilisation • Concevoir et optimiser les pipelines d’ingestion et de traitement de données basés sur Spark : performance des jobs, gestion des volumétries, stratégies de partitionnement et formats de stockage • Intervenir directement sur les évolutions techniques pour accompagner la montée en charge : volumétrie, nombre d’utilisateurs, complexité des pipelines • Contribuer à la gouvernance technique par la pratique : établir des standards à partir de cas concrets et documenter les décisions techniques • Évaluer et prototyper l’intégration de nouveaux composants dans l’écosystème : formats de stockage, outils de catalogue, moteurs de calcul Industrialisation et scalabilité : • Industrialiser les pipelines Data et IA/ML avec un objectif de fiabilité, observabilité et reproductibilité, en mettant en œuvre directement les solutions • Concevoir et implémenter les patterns de déploiement et d’exploitation à l’échelle en collaboration avec les équipes support et l’équipe d’ingénierie de production • Mettre en place les mécanismes de monitoring, d’alerting et de capacity planning adaptés aux workloads Data/IA • Structurer le support de niveau 3 et accompagner l’équipe de production sur le support de niveaux 1 et 2 Accompagnement et montée en compétence : • Conseiller et accompagner les équipes de développement et de data science dans l’utilisation optimale des plateformes • Assurer un rôle de référent technique opérationnel au sein de l’équipe, par l’exemple et le pair-working • Participer à la veille technologique et réaliser des POCs sur des évolutions pertinentes pour l’écosystème Data/IA Environnement fonctionnel : • Plateformes Data & IA/ML • Plateformes Kubernetes on-premise et Cloud servant de socle d’hébergement • Outils DevOps : intégration continue, déploiement, observabilité • Projets de R&D visant à moderniser le SI • Accompagnement des initiatives IA/ML du groupe • Outils de monitoring du SI Environnement technique : • Data / Orchestration : Dagster, Trino, Apache Spark, Hive, Delta Lake, Iceberg, Superset, OpenMetadata • IA / ML : workloads IA/ML sur Kubernetes, outils MLOps • Hébergement : Kubernetes on-prem et Azure, Docker • DevOps / Observabilité : ArgoCD, Jenkins, Grafana, Prometheus, Sysdig • Langages : Python, Go • Versioning / Stockage : GitLab, Artifactory, S3
Offre d'emploi
Data Engineer H/F
OBJECTWARE
Publiée le
Apache Airflow
Microsoft Power BI
Python
1 an
Tours, Centre-Val de Loire
Nous recherchons un Ingénieur Data H/F pour une mission à Tours. Missions : Développer et maintenir des pipelines de données avec Airflow Concevoir et optimiser des traitements de données en Python Collecter, nettoyer et transformer des données issues de sources variées Alimenter des entrepôts de données (Data Warehouse / Data Lake) Assurer la qualité, la fiabilité et la traçabilité des données Collaborer avec les équipes métiers pour la mise à disposition de dashboards sous Power BI Participer à l’optimisation des performances et à l’automatisation des flux
Offre d'emploi
Senior Data Engineer Big Data
VISIAN
Publiée le
AWS Cloud
Python
1 an
Île-de-France, France
Contexte Dans le cadre de son plan de transformation Data, un grand groupe média poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing. Pour répondre à cet enjeu, ce groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI , ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour , dont une part majoritaire en temps réel. Les cas d'usage couverts sont variés, parmi lesquels : IA pour recommandation des programmes et des offres Plateforme agentique customer-facing Gender Equality Monitoring Feature Store Modernisation des flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice Le consultant aura pour mission de réaliser des développements avancés sur le socle des données Big Data pour la mise en place des usecases IA. Cet environnement Big Data, fortement orienté Streaming et IA, traite quotidiennement plus de 100 To de données . Le consultant doit maîtriser les architectures de Streaming Data, AWS (notamment Lambda, Batch, Step Function, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB, etc.), Airflow, Scala, Spark, SQL, Snowflake, GitLab CI/CD, Terraform. Missions Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Participer activement à l'évolution continue de la plateforme IA
Mission freelance
Data Engineer – Tracking & Analytics
Nicholson SAS
Publiée le
BigQuery
Google Tag Manager
Looker Studio
7 mois
340 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d'une refonte majeure des outils de mesure d'audience, nous recherchons un Data Engineer pour accompagner la migration de l'écosystème analytics (transition de Adobe Analytics vers Piano Analytics ). Intégré(e) au département Solutions Digitales au sein d’une équipe agile, vous serez le garant de la collecte, de la transformation et de la restitution des données issues des canaux digitaux. La mission repose sur une exploitation avancée de la suite Google Data (GTM, BigQuery, Looker Studio). Missions principales 1. Implémentation & Tracking Accompagner les métiers dans la définition des besoins en tracking et des KPI associés. Assurer le paramétrage via Google Tag Manager (GTM) . Réaliser la recette des données lors des phases de test et après mise en production des features. 2. Engineering & Data Pipeline Concevoir et maintenir les flux d'ingestion de données vers BigQuery . Développer des scripts de transformation et d'ingestion (principalement en Node.js et Python ). Assurer le monitoring quotidien des flux (interventions et correctifs si nécessaire). Intégrer de nouvelles sources de données pour enrichir le pilotage global du projet. 3. Restitution & Analyse Fiabiliser et mettre à disposition les données dans Looker Studio . Analyser les données produites pour en extraire des enseignements actionnables. Contribuer à l'amélioration continue des processus et des méthodes de l'équipe. 4. Collaboration Agile Interagir étroitement avec les différents corps de métier (PO, UX, Architectes, Développeurs, Testeurs) pour la co-construction des fonctionnalités. Participer activement aux rituels du train Agile. Modalités pratiques Lieu : Niort (79) – Présence sur site obligatoire 3 jours/semaine . Démarrage : ASAP. Durée : Jusqu'au 31/12/2026. Budget d'achat max : 340 € HT / jour.
Offre d'emploi
Data Engineer H/F
JEMS
Publiée le
45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 8vpph62lhn
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
288 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois