Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 314 résultats.
Mission freelance
Data Engineer / Analyste Azure (MSBI) :
Cherry Pick
Publiée le
Azure
MSBI
SQL
12 mois
450-500 €
Paris, France
Dans le cadre de projets Data en environnement Full Microsoft, Altarea souhaite renforcer ses équipes sur des sujets d’ingestion, traitement et restitution de données. Les projets consistent à : ingérer de nouvelles données depuis des bases Oracle ou PostgreSQL, Les stocker et traiter sur Azure, Produire des rapports décisionnels via Power BI. Mission Ingestion de données depuis Oracle / PostgreSQL vers Azure Utilisation de SSIS (infra locale) ou Azure Data Factory selon les contraintes techniques et de coûts Traitement et transformation des données Modélisation et restitution via Power BI Travail majoritairement en SQL (pas de besoin Python) Capacité à challenger les choix techniques et à proposer des optimisations Veille technologique et posture de consultant Environnement technique Stack Full Microsoft (MSBI) SQL Server / SSIS Azure (Data Factory, stockage) Power BI Sources : Oracle, PostgreSQL Profil recherché Data Engineer / Data Analyst Azure 5 à 10 ans d’expérience Très bon niveau SQL À l’aise en environnement MSBI Capacité de recul, force de proposition Posture conseil Une expérience dans la promotion immobilière est un gros plus
Mission freelance
Data Engineer Senior - Data Warehouse
Cherry Pick
Publiée le
Audit
Azure
Azure Data Factory
6 mois
600-680 €
Île-de-France, France
Dans un contexte de transformation, la fiabilité de la donnée est devenue un enjeu critique pour le pilotage financier et opérationnel. Contexte & Enjeux Un socle de Data Warehouse a été initié suite à la refonte du SI, mais celui-ci reste aujourd’hui : incomplet, instable (bugs, latences importantes), avec des problématiques de qualité et de disponibilité de la donnée. Le reporting Power BI est géré en interne. 👉 La mission ne concerne pas la data visualisation , mais bien la construction d’un Data Warehouse robuste, industrialisé et exploitable . Nous recherchons un Data Engineer senior / consultant expérimenté capable de reprendre l’existant, de comprendre les enjeux métiers (notamment contrôle de gestion) et de livrer un socle data fiable dans des délais courts. Missions1. Audit & Diagnostic Analyse de l’existant (modèle de données, flux, performances, qualité) Identification des causes de lenteur, bugs et données manquantes Évaluation de la cohérence entre besoins métiers et implémentation technique 2. Modélisation & Refonte du Data Warehouse Reprise et optimisation de la modélisation DWH Structuration d’un réceptacle de données cohérent et évolutif Intégration des flux issus des nouveaux outils : Cegid XRP Microsoft Dynamics Ammon 3. Ingénierie de données (ETL / ELT) Refactorisation et complétion des pipelines existants Mise en place de l’historisation des données Amélioration des performances et de la fiabilité des traitements 4. Qualité, Traçabilité & Documentation Mise en place de contrôles de qualité automatisés Gestion de la traçabilité et des règles de gestion Documentation du socle data pour sécuriser et pérenniser l’existant 5. Interface Métier Compréhension fine des besoins des opérationnels (indicateurs, chiffres, règles de gestion) Traduction des besoins métier en spécifications techniques Capacité à challenger les demandes pour garantir la cohérence globale du modèle
Offre d'emploi
Data Engineer (F/H) – Domaine de l’environnement - Toulouse
CELAD
Publiée le
38k-44k €
Toulouse, Occitanie
2 jours de télétravail / semaine - Toulouse - Expérience de 3 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons un(e) Data Engineer pour intervenir chez l’un de nos clients dans le domaine de l’environnement , disposant d’une plateforme Big Data exploitant de très grands volumes de données. Ces données alimentent des algorithmes d’analyse avancée et des services à forte valeur ajoutée (détection d’anomalies, prévisions, aide à la décision). Vous rejoignez une équipe data transverse avec un objectif clair : industrialiser et fiabiliser des traitements Big Data à grande échelle. Vos missions : Au sein d’une équipe Transformation & Modélisation pluridisciplinaire (data engineers, data scientists, développeurs), vous serez amené(e) à : Contribuer à la mise en place et à l’évolution de la stack Big Data Développer des jobs Spark pour l’ingestion, la préparation et l’enrichissement de données massives Alimenter et maintenir les données du data lake ou les rendre disponibles pour des usages IA / ML Travailler avec les outils de conteneurisation et d’orchestration comme Docker, Kubernetes et Helm Enrichir le serving layer et exposer les données via des web services Participer à la mise en production , à la maintenance et à l’amélioration continue des traitements Collaborer étroitement avec les équipes data, IT et métiers Compétences techniques : ️ Expérience confirmée en Data Engineering et traitement de données volumineuses Solide expérience en Java / Maven (J2EE / JDK 17) et Scala Maîtrise de Spark (SQL / DataFrame) pour traiter de grands volumes Bonne connaissance des architectures Big Data et des data lakes Expérience sur des pipelines data industrialisés Sensibilité aux problématiques de performance, robustesse et qualité des données Une connaissance des environnements ML / IA est un plus
Mission freelance
Data Engineer Senior / Data Product Analyst
Signe +
Publiée le
Microsoft Power BI
24 mois
370 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte du poste Dans un contexte industriel et data-driven, le poste vise à renforcer la capacité de l’entreprise à exploiter ses données pour améliorer le pilotage des activités, optimiser les processus et créer de la valeur métier. Le profil interviendra comme référent data opérationnel, à l’interface entre les équipes métiers et les équipes techniques, dans des conditions industrielles exigeantes. Profil recherché Profil autonome avec au moins 5 ans d’expérience en data engineering Forte capacité d’analyse business et de compréhension desseux des enjeux métiers Capacité à concevoir, développer et opérer des solutions data de bout en bout Aisance dans un rôle d’interface entre équipes métiers et équipes techniques Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et d’identifier les leviers de création de valeur Accompagner les équipes métiers dans le développement, le déploiement et l’exploitation des solutions data Être le référent technique de la solution, avec une maîtrise fine des données manipulées Agir comme point de contact privilégié des équipes métiers pour les sujets liés à l’exposition, à l’exploitation et à la valorisation des données industrielles Garantir la mise à disposition de données fiables, compréhensibles et exploitables Principaux résultats attendus Identification, capture et sélection des données pertinentes pour répondre aux besoins des utilisateurs Optimisation du temps, des ressources et des outils nécessaires à la gestion et à l’analyse des données Mise à disposition des données sous des formats accessibles et exploitables via des visualisations adaptées Production de recommandations et lignes directrices permettant aux métiers de créer de la valeur Optimisation des offres, services ou processus grâce aux analyses et évaluations réalisées Application et respect des règles du groupe en matière d’éthique et de gouvernance des données Présentation et promotion des fonctionnalités des produits data afin de faciliter leur adoption et leur maintenabilité Réalisation de tests conformes à la stratégie de test définie Maintien à jour du catalogue des produits data (datasets) Mise à disposition de kits de formation et d’outils à destination des utilisateurs Compétences fondamentales en Data Engineering Modélisation de données Modèles relationnels Modèles dimensionnels Data Vault ETL / ELT Conception et optimisation de pipelines robustes Gestion des dépendances et de l’industrialisation Qualité et gouvernance des données Data lineage Contrôles de qualité des données Catalogage et gestion des métadonnées Architecture data Compréhension des architectures modernes (Data Lakehouse, Data Mesh, etc.) Langages de programmation SQL avancé Python / PySpark avancé Outils et technologies Dataiku Power BI Databricks Azure Data Factory Azure Logic Apps
Mission freelance
Data Engineer DBT/Snowflake
Net technologie
Publiée le
DBT
Snowflake
3 mois
400-420 €
Lyon, Auvergne-Rhône-Alpes
Snowflake : Configuration et optimisation des entrepôts Snowflake Gestion des étapes externes et de Snowpipe pour l'ingestion à partir d'AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration de la base de données Snowflake (création/gestion d'objets, monitoring, optimisation) DBT : Développement avancé de modèles SQL dans dbt Création et optimisation de modèles de données Utilisation des macros Jinja pour créer du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des instantanés dbt pour le suivi des modifications Création de DAG optimisés avec une gestion appropriée des balises et des dépendances Documentation des modèles de données
Mission freelance
Data engineer(H/F)
Freelance.com
Publiée le
Azure
Python
SQL
3 ans
400-500 €
Hauts-de-Seine, France
DATA ENGINEER AZURE (KPI, DBT, MÉTIER) Intitulé Data Engineer Azure – KPI, dbt (Data Build Tool) & compréhension métier __________ Contexte Dans le cadre du renforcement de son équipe data, le client recherche un Data Engineer capable d’intervenir à la fois sur la technique et sur la compréhension de l’usage de la donnée. L’équipe data est déjà en place. Le besoin porte sur un profil capable de : • dialoguer avec les équipes métier, • établir des KPI, • et maîtriser dbt (Data Build Tool), outil central permettant de modéliser la donnée et de définir clairement comment elle doit être utilisée et exploitée. __________ Attentes principales du client Le client attend un consultant qui : • Sait établir des KPI à partir des besoins métier, • Comprend la logique métier derrière les indicateurs, • Maîtrise dbt (Data Build Tool) pour transformer et modéliser la donnée, • Est capable d’expliquer et de justifier les règles de calcul des KPI. dbt est utilisé comme un outil de structuration et de compréhension de la donnée, et non uniquement comme un outil technique. __________ Rôle du consultant • Être un interlocuteur data privilégié des équipes métier • Comprendre les processus et enjeux business • Traduire les besoins métier en KPI clairs et cohérents • Utiliser dbt (Data Build Tool) pour modéliser la donnée et formaliser les règles de calcul • Travailler en complément et en accompagnement de l’équipe data existante __________ Missions principales Métier & KPI • Échanger avec les équipes métier • Comprendre leurs objectifs et problématiques • Établir et formaliser des KPI • Clarifier les définitions et règles de calcul des indicateurs • S’assurer que la donnée produite correspond à un usage concret Data & technique • Intervenir sur un environnement Microsoft Azure • Travailler sur Microsoft Fabric • Transformer et modéliser la donnée avec dbt (Data Build Tool) • Exploiter la donnée via SQL et Python • Garantir la cohérence, la lisibilité et la compréhension des modèles de données • Participer à la mise en production et à l’industrialisation • Documenter les modèles, transformations et KPI __________ Environnement technique • Cloud : Microsoft Azure • Plateforme data : Microsoft Fabric • Transformation & modélisation : dbt (Data Build Tool) • Langages : SQL, Python • Collaboration étroite avec équipes data et métier __________ Profil recherché • Data Engineer confirmé • À l’aise dans les échanges avec des interlocuteurs métier • Capable d’établir des KPI • Bonne compréhension de l’usage et de la valorisation de la donnée • Expérience concrète sur dbt (Data Build Tool) • Expérience sur Microsoft Fabric • Solide niveau en SQL • Esprit collaboratif, pédagogue et pragmatique __________ Qualités attendues • Bon communicant • Capacité à vulgariser la donnée • Sens du service et du collectif • Approche orientée valeur métier • Capacité à s’intégrer dans une équipe existante
Offre d'emploi
Data Engineer Azure & Databricks (H/F)
CITECH
Publiée le
Data Lake
Databricks
PySpark
12 mois
80k-90k €
550-650 €
Fos-sur-Mer, Provence-Alpes-Côte d'Azur
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Architect Azure & Databricks (H/F). 🏭 Entreprise reconnue dans le secteur de la sidérurgie, implantée dans de nombreuses villes en France, notre client est le plus important producteur d'acier au monde, et a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. Description du poste 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Configurer, structurer et mettre en œuvre l’environnement Azure Data Lake et Databricks afin de répondre aux besoins d’ingestion et de traitement des données. 🔸 Créer des pipelines d’ingestion robustes sous Apache NiFi , intégrant des sources industrielles variées et respectant les contraintes techniques de performance, de mémoire et de réseau. 🔸 Mettre en place et maintenir un Unity Catalog garantissant la gouvernance, la traçabilité et le Data self-service . 🔸 Veiller à la stabilité de l’environnement , à la qualité du code, à la performance des traitements et à la complétude de la documentation technique. 🔸 Promouvoir la solution auprès des utilisateurs, rédiger la documentation associée et contribuer activement au partage de connaissances au sein de l’équipe Data.
Mission freelance
Data Engineer Kafka/JAVA
ALLEGIS GROUP
Publiée le
Apache Kafka
Java
Spark Streaming
4 mois
Paris, France
TEKsystems recherche pour le compte de son client dans le secteur de l'assurance : Un data engineer Spark/ JAVA (H/F) Missions : La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs. Contexte: Réalisation des projets Data et de MCO des patrimoines applicatifs Data du Groupe. Cette prestation s'inscrit dans la squad « Restitution Règlementaires » qui a en charge la constitution des déclaratifs à destination des organismes de tutelle Les principaux déclaratifs concernés sont les suivants : • FICOVIE • EAI / FATCA • IER • ECKERT •AGIRA / RNIPP Les déclaratifs sont constitués à partir de 2 sources : Décisionnel et Plateforme Data en big Data. La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs.
Offre d'emploi
Data Engineer 2 - 5 ans (aws) PARIS
Cogniwave dynamics
Publiée le
Data science
Paris, France
Nous recrutons un(e) Data Engineer confirmé(e) pour rejoindre notre équipe et travailler en étroite collaboration avec nos experts Data Science (profil ingénieur ML/Data), spécialisé dans les pipelines IA, le NLP, les LLM, le RAG et AWS Bedrock. Le poste est basé à Paris, avec possibilité de télétravail, au sein d’une équipe dynamique orientée IA générative et analyse intelligente de documents. 💼📍 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes (ETL, SQL / NoSQL). Intégrer, déployer et optimiser des modèles de Machine Learning et LLM (Scikit-learn, Transformers, LangChain). Mettre en œuvre des architectures cloud AWS : S3, Bedrock, EC2, ECR / ECS Fargate. ☁️ Développer des APIs (Flask / FastAPI), des chatbots RAG et des outils de matching CV / offres. Collaborer sur des projets OCR, NLP et de visualisation de données (Power BI). 📊 Animer des formations et interventions publiques sur l’IA (ateliers, webinaires) afin de partager l’expertise et vulgariser les avancées ML/LLM auprès de clients et partenaires. 🎓
Offre d'emploi
Data Engineer — profil “solution & impact”
HR DNA
Publiée le
Data analysis
Dataiku
RPA (Robotic Process Automation)
2 ans
40k-45k €
400-500 €
Niort, Nouvelle-Aquitaine
Chers consultants, Nous recherchons actuellement, pour un client du secteur de l’assurance basé à Niort , un Data Engineer – profil “solution & impact” . 🎯 Finalité du rôle Un data engineer orienté solutions, capable de répondre à des problématiques métiers concrètes , et pas un simple exécutant technique. 🧠 ADN du profil recherché • Force de proposition, capable de challenger un besoin • Capable de comprendre le pourquoi , pas uniquement le comment • À l’aise dans des environnements data orientés valeur métier 🛠️ Compétences clés • Dataiku (ou plateforme data science équivalente) : – conception de pipelines – optimisation des flux – industrialisation des traitements • Vision end-to-end des chaînes data : – ingestion → transformation → exposition – performance, qualité et maintenabilité 🤝 Posture attendue • Capacité à dialoguer avec un chef de projet data • Compréhension des enjeux métiers • Proposition d’architectures et de choix techniques adaptés 👉 En résumé Un Data Engineer senior , orienté valeur métier, capable de concevoir des solutions data robustes et utiles — pas seulement du code propre. 📍 INDISPENSABLE : présence sur site à Niort minimum 3 jours par semaine.
Mission freelance
Data Engineer Industrial (Industry 4.0) - Belgique
ARTESIA IT
Publiée le
Snowflake
1 an
500-550 €
Belgique
Contexte Des sites industriels spécialisés dans la fabrication de composants métalliques de haute précision produisent des pièces critiques en titane, impliquant des opérations d’usinage et de forge extrêmement fines (ordre de grandeur : 10 µm). Une équipe dédiée à la modernisation industrielle est responsable de fournir des outils digitaux et des solutions technologiques avancées en support aux métiers et aux unités de production. Dans le cadre d’un programme ambitieux de modernisation industrielle (Industry 4.0), l’équipe recherche un Data Engineer afin de développer des pipelines de données industriels. L’objectif principal est de concevoir et déployer des pipelines de données (ETL) robustes, scalables et sécurisés, en s’appuyant sur des technologies pérennes, au sein d’architectures hybrides combinant environnements on-premise et cloud. Ce rôle est essentiel pour fiabiliser les flux de données industriels, exposer les données via un Unified Namespace et des APIs robustes, et en permettre l’exploitation à grande échelle dans un contexte sécurisé et opérationnel. Structure du département L’équipe est composée d’ingénieurs spécialisés dans l’interface entre le monde industriel (OT) et les systèmes d’information manufacturiers (IT). Parmi les expertises présentes : IT Platform Manufacturing Execution Systems Unified Namespace (collecte et distribution temps réel) Inspection Qualité Data (BI, Machine Learning, IA, etc.) Attractivité du poste Le projet vise à concevoir et développer la plateforme Manufacturing 4.0 du futur, intégrant notamment : pilotage par la donnée, robotique, intelligence artificielle. Fonction Tâches En collaboration avec les équipes data, IT et métiers industriels, vous devrez : Concevoir & développer des pipelines de collecte de données machines (fichiers, flux, capteurs, MES) Décoder et transformer des données brutes en formats exploitables (JSON, tables analytiques) Implémenter des transformations complexes Développer & déployer des APIs data Industrialiser les solutions via containers & CI/CD GitLab Maintenir les modèles de données & pipelines dans Snowflake Travailler avec les équipes IT pour l’intégration Documenter & partager les bonnes pratiques Challenges Être un acteur clé de la modernisation 4.0 Fiabiliser les flux data issus des machines Concevoir des architectures robustes & maintenables Concilier contraintes industrielles / IT / qualité de données Faire évoluer les pratiques Data Engineering Interactions internes & externes Intégration au sein de l’équipe Manufacturing 4.0 Interactions régulières avec les équipes MES, Qualité, Maintenance, UNS, IT, Cloud Collaboration possible avec des partenaires technologiques externes Mobilité Travail principalement en présentiel sur site industriel Déplacements ponctuels sur un second site de production Télétravail possible jusqu’à 2 jours/semaine selon les besoins
Mission freelance
DATA ENGINEER GCP
BEEZEN
Publiée le
Google Cloud Platform (GCP)
1 an
Paris, France
EXPERIENCE DANS LES MEDIAS IMPERATIF Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestation de cette équipe : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestations attendues : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine
Mission freelance
Data Engineer DBT & IICS
Net technologie
Publiée le
DBT
Informatica
Snowflake
3 mois
400-420 €
Bordeaux, Nouvelle-Aquitaine
L’équipe est à la recherche d’un Data Engineer senior pour piloter et structurer la migration des flux existants depuis Informatica Intelligent Cloud Services (IICS) vers une architecture moderne basée sur DBT et Snowflake . Ce rôle est clé dans la transformation de la plateforme data : le candidat retenu interviendra à la fois sur les aspects techniques, méthodologiques et de gouvernance des transformations de données. Le candidat idéal devra jouer un véritable rôle de « traducteur » entre l’existant et la cible. Il devra être capable de : analyser et comprendre des mappages IICS hérités , souvent complexes, peu documentés et construits de manière monolithique, effectuer un travail approfondi de rétro-ingénierie afin d’identifier précisément la logique métier, les règles de transformation et les dépendances, refactoriser ces traitements en modèles DBT SQL clairs, modulaires et maintenables , en appliquant les bonnes pratiques DBT (tests, documentation, modularité, réutilisabilité), garantir la qualité, la performance et la traçabilité des données sur Snowflake, tout en facilitant l’évolutivité et la maintenance à long terme. Ce poste nécessite une forte capacité d’analyse, une excellente maîtrise du SQL et une approche structurée de l’ingénierie data, ainsi qu’une aptitude à faire le lien entre des logiques techniques historiques et des architectures data modernes orientées analytics.
Mission freelance
Mission Freelance – Analytics Engineer / Data Engineer (H/F)
SKILLWISE
Publiée le
Azure Data Factory
Databricks
Scala
3 mois
100-550 €
Paris, France
Nous recherchons un freelance Analytics Engineer / Data Engineer pour intervenir sur un projet Data transverse d’envergure , au sein d’un grand groupe français du secteur médias & digital . Le projet vise à centraliser, harmoniser et fiabiliser les données de diffusion publicitaire digitale (impressions, chiffre d’affaires, performance, etc.) afin de fournir un reporting unifié et fiable selon différentes dimensions métiers (canaux de vente, équipes commerciales, annonceurs, origines des revenus…). Au sein d’une équipe Data expérimentée, vous interviendrez sur les missions suivantes : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Spark SQL Maintenir et faire évoluer des pipelines de traitement en Scala (part marginale) Développer et maintenir des indicateurs de qualité de données (KPI data) Participer au refactoring du code existant afin d’améliorer performance et maintenabilité (réécriture en DBT ) Garantir la qualité du code et le respect des standards de développement Mettre en place des tests unitaires et contribuer à la fiabilité des traitements Participer au monitoring des solutions Data Digital Produire les livrables attendus : code source, documentation et indicateurs qualité
Offre d'emploi
Data Engineer / Analyst (Secteur des Assurances)
Amontech
Publiée le
Azure
Oracle
PL/SQL
1 an
45k-52k €
500-550 €
Île-de-France, France
🎯 Contexte Nous recherchons un Data Engineer / Analyst expérimenté pour rejoindre un programme de transformation Data (secteur des assurances). 🔍 Vos missions Analyser et comprendre les scripts existants en PL/SQL / SQL Étudier les flux de données et les transformations entre les couches Bronze, Silver et Gold Piloter la qualité, complétude et fiabilité des données Développer et valider des traitements en PySpark / Spark SQL Participer à la conception et à la validation des dashboards Power BI Mettre en place et promouvoir les bonnes pratiques Data Déployer les rapports auprès d’autres entités métiers Contribuer à la documentation technique et fonctionnelle
Mission freelance
Data Engineer senior/expert DBT & IICS
EBMC
Publiée le
Informatica Cloud (IICS)
3 mois
100-450 €
France
Dans le cadre d’un programme de modernisation de la plateforme data, le client souhaite engager une migration structurante d’Informatica IICS vers dbt sur Snowflake . Cette mission s’inscrit dans une démarche de rationalisation, de standardisation et d’amélioration de la qualité des traitements analytiques. L’enjeu principal est de remplacer des chaînes ETL historiques complexes par des modèles dbt robustes, lisibles et maintenables, tout en garantissant une parité stricte des données (1:1) entre l’existant et la cible. Le consultant jouera un rôle clé dans la réussite de cette transformation, avec un fort niveau d’autonomie et de responsabilité technique.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- ARCE | Informations générales-Indemnisation
- Je code pour vous une application gratuitement
- Passage au réel après dépassement micro : notification URSSAF ?
- Placement via mon EURL à l'IS
- Pourquoi est-il si dur de décrocher une mission avec un CV pourtant plutôt intéressant ?
- TJM en vrille sur une proposition d'AO
314 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois