L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 060 résultats.
Mission freelance
Data Engineer Senior
Comet
Publiée le
Azure
Data Lake
Pandas
24 mois
400-650 €
Paris, France
Objectifs et livrables Dans le cadre du lancement de notre nouveau projet, nous recherchons une prestation de Data Engineer senior pour concevoir et mettre en œuvre des pipelines de données dans un environnement serverless exigeant. Le prestataire Data Engineer senior doit être capable de produire, mais aussi de comprendre les enjeux métier, de cadrer les sujets en amont, de faire les bons choix de conception et de diffuser son savoir-faire au sein de la squad. Missions principales : Concevoir et développer des pipelines de données en Python Implémenter des traitements batch et des orchestrations via Azure Durable Functions Manipuler des données volumineuses, notamment au format Parquet Mettre en place des validations de schémas et des contrôles de qualité de données Assurer l’intégration avec des APIs externes Participer à la modélisation et à l’optimisation des bases Azure SQL Mettre en œuvre l’observabilité de la solution : traces, métriques, logs Industrialiser les déploiements via CI/CD • Garantir la qualité et la sécurité du code Contribuer à l’analyse des besoins et au cadrage des sujets avant implémentation Porter une réflexion de conception sur les choix techniques, les compromis et la maintenabilité Utiliser l’IA comme un levier d’ingénierie concret : accélérer l’exécution, explorer des options, challenger des choix, améliorer la qualité et gagner en efficacité, sans déléguer la réflexion ni baisser le niveau d’exigence Partager ses pratiques, expliciter ses choix et contribuer à la montée en compétence de la squad Travailler efficacement dans un environnement international, y compris en anglais sur des sujets techniques et de conception Profil recherché : Capable de comprendre rapidement les enjeux métier et de les traduire en solutions robustes et pragmatiques Capable de penser le problème avant de se focaliser sur l’implémentation Doté d’une vraie expertise d’ingénierie et de conception, au-delà de la seule maîtrise d’un langage, d’un framework ou d’une version spécifique Capable d’utiliser les outils d’IA de manière avancée, critique et pertinente, et non comme un simple générateur de code Proactif, précis et honnête sur ses capacités, ses limites et les risques associés à ses choix Capable de produire de la synthèse utile à la décision Attiré par l’immersion dans les sujets, le partage, la transmission et le travail transverse Compétences requises : Langage : Python Cloud : Expérience des Azure Functions, notamment Durable Functions v2 Capacité à récupérer et exploiter des données depuis différentes sources Azure : Data Lake, Blob Storage, Azure DB Data processing: Pandas Polars PyArrow Langues : Bon niveau d’anglais, permettant de participer de manière autonome à des échanges techniques et de conception, à l’écrit comme à l’oral La valeur attendue réside aussi dans la capacité à comprendre les enjeux, concevoir les bonnes solutions, utiliser l’IA avec discernement, expliciter les choix et faire progresser l’équipe. Compétences demandées PYTHON - Expert POLARS - Confirmé PYARROW - Confirmé PANDAS - Confirmé Fonctions Azure - Expert Niveau de langue Anglais - Courant
Offre d'emploi
Data Engineer Databricks
ASTRELYA
Publiée le
Amazon S3
Ansible
Apache Spark
Noisy-le-Grand, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant que Data Engineer Databricks vous participez à la définition de l’architecture de la data platform et du Datawarehouse/Data Lake. Concevoir et développer des nouvelles fonctionnalités sur des applications hébergées par les plateformes Data. Développer et maintenir des pipelines de données performants (batch & streaming) et participer à toutes les étapes de traitement des données du niveau bronze au niveau gold. Garantir la sécurité, la robustesse et la fiabilité des pipeline de données en veillant aux enjeux de performance, d’accessibilité et d’intégrité des données. Contribuer à l’implémentation d’un Data Lab pour accélérer les usages Data & IA. Mettre en place et industrialiser des chaines CI/CD. Participer aux mises en production et au support en cas d’incident majeur. Travailler aux côtés de Data Product Owner, Data Architect et de BI & Analytics Engineer. Participer aux cérémonies agiles organisées par la squad : daily, sprint planning, sprint review, sprint rétrospective Effectuer une veille technologique continue sur de nouvelles solutions et tendances Data.
Offre d'emploi
Tech-Lead Data Quality, IA, Azure
Management Square
Publiée le
Azure Synapse
Data quality
IA
1 an
57k-62k €
500-600 €
Paris, France
Activités principales : • Présenter des retours d'expérience sur la gestion de la qualité des données sur les plateformes Azure et les bonnes pratiques de gestion de la qualité sur les plateformes Azure • Réaliser un audit de la gestion de la qualité des données sur les plateformes et prendre connaissance des contrôles de qualité actuellement disponibles et des objectifs à court et moyen terme • Définir le champ des possibles sur la base des composants actuellement disponibles sur la plateforme ou standards sur Azure. • Présenter les apports de l'IA dans le cadre d'une pratique de contrôle de qualité des données • Présenter la stratégie de déploiement de la qualité des données pour les prochains mois • Déployer les contrôles de qualité existants ainsi que ceux identifiés par le CDO • Assurer le passage de connaissance vers les équipes internes
Offre premium
Mission freelance
Senior Data Engineer / Tech Lead Data
WERIN GROUP DIGITAL
Publiée le
DBT
Snowflake
SQL
3 mois
500-600 €
La Défense, Île-de-France
Contexte : Notre client dans le secteur Public et du Logement, filiale d’un grand groupe avec 925 collaborateurs agit chaque jour pour faciliter l’accès au logement des jeunes actifs et salariés de la classe moyenne. Il a souhaite agir et innover et a pour ambition de développer l’offre de logements à prix maîtrisé en Ile-de-France. C'est un des leader du logement à prix maîtrisé en Ile-de-France. La mission : Dans le cadre d’un projet de refonte de notre SI Data, ils recherchent actuellement un profil expérimenté de type Senior Data Engineer ou Tech Lead Data afin de les accompagner sur la mise en place et l’évolution de leur nouvelle plateforme data. Le projet s’appuie notamment sur des technologies modernes telles que Snowflake et Dbt .
Mission freelance
Développeur Azure Databricks (Pré-embauche)
SQLI
Publiée le
Databricks
6 mois
400-600 €
Paris, France
Bonjour, Pour le compte de l'un de mes clients parisiens, je suis à la recherche d'un développeur AAzure Databricks en pré-embauche. La mission : En tant que Développeur / Data Engineer Azure Databricks, vous intervenez au cœur de la Data Factory Entegra pour concevoir, développer et industrialiser les pipelines de données critiques du groupe. Vous travaillez en étroite collaboration avec : Le Head of Data, le Tech Lead Data, les équipes métiers et IT locales (France, UK, IT, ES, NL…), & les équipes partenaires. Responsabilités principales : Concevoir et développer des pipelines de données robustes et scalables sur Azure Databricks (PySpark, Delta Lake) Mettre en œuvre les chaînes d’ingestion, transformation et exposition des données (Bronze / Silver / Gold) Participer à l’industrialisation des traitements data (qualité, monitoring, performance, reprise sur incident) Contribuer à la structuration du socle Data Factory et aux bonnes pratiques de développement Documenter les développements et garantir la qualité du code et la maintenabilité. Travailler avec les équipes régionales pour : Comprendre les besoins fonctionnels, Accompagner la montée en compétences, Assurer le transfert de connaissances, Intervenir dans un contexte international, avec une forte dimension métier et “customer facing”.
Mission freelance
Tech Lead Data & BI (Snowflake / dbt / Power BI)
EMGS GROUP
Publiée le
Data modelling
DBT
Microsoft Power BI
6 mois
500-600 €
Paris, France
ans le cadre du renforcement d’une équipe data, nous recherchons un Tech Lead Data & BI pour piloter la delivery technique de solutions data et de visualisation. Missions : Pilotage technique des projets data et BI Conception et mise en œuvre de modèles de données et datamarts Développement et structuration de projets dbt (modèles, tests, documentation) Mise en place de pipelines industrialisés (orchestration, CI/CD, contrôles qualité) Définition des standards et bonnes pratiques Power BI (templates, performance, gouvernance) Construction et optimisation des modèles sémantiques et des reportings Accompagnement et montée en compétences des équipes Contribution au cadrage technique des nouvelles initiatives Livrables attendus : Modèles de données Snowflake robustes et documentés Pipelines data industrialisés et sécurisés Modèles sémantiques et rapports Power BI performants Standards et guides de bonnes pratiques (connexion, gouvernance, templates)
Mission freelance
Expert Data Engineer – Looker Core
Nicholson SAS
Publiée le
BigQuery
IA
Legacy System Migration Workbench (LSMW)
6 mois
700-850 €
Paris, France
Contexte de la mission Dans le cadre d’un projet stratégique de migration vers le Cloud (« Data Move To Cloud »), vous rejoignez une entité majeure du secteur du transport aérien. Votre rôle sera d’évaluer et d’accompagner l’adoption de Looker Core comme futur standard de Dataviz du groupe. Missions principales Accompagnement de POCs : Piloter le développement technique et soutenir les équipes métiers dans la réalisation de leurs preuves de concept. Expertise Conseil : Apporter un regard critique et structurant sur l'architecture, la sécurité et l'optimisation FinOps liées à l'outil. Acculturation & Pédagogie : Former les utilisateurs finaux et assurer l'interface technique avec les équipes IT (Ops, Architectes). Étude Stratégique : Évaluer la capacité de Looker à répondre aux nouveaux enjeux (analyses ad-hoc, IA conversationnelle) et sa pertinence pour remplacer les solutions legacy (SAP BO, Spotfire). Informations pratiques Lieu : Paris (Rythme hybride : 2 à 3 jours de télétravail / semaine). Démarrage : ASAP. Durée : Jusqu’au 11/11/2026 (Visibilité long terme). TJM : Selon profil (séniorité et expertise) Note : Looker Studio est hors périmètre. Le client cherche un profil expert en Looker Core/ LookML. Looker Studio et ses dérives ne rentrent pas en perspective.
Mission freelance
Architecte Data Power BI
SQLI
Publiée le
Microsoft Power BI
6 mois
400-600 €
Paris, France
Bonjour, Pour le compte de l'un de mes clients dans le secteur de l'énergie, je suis à la recherche d'un archi data orienté Power BI. Le Data Architecte sera en charge a minima des activités suivantes : -Recueillir et traduire en solutions techniques le besoin métier/utilisateur (modèle, mesure, rapports), -Définir l’architecture cible et les principes de modélisation, -Proposer les choix techniques et assurer la fiabilité des flux d’alimentation (Power Query, ETL, …), -Gérer les ajouts de nouvelles sources de données, -Surveiller les chargements et traiter les incidents de données, -Gérer les workspaces et droits d’accès, -Superviser les performances et la conformité sécurité et RGPD, -Rédiger le dossier d’architecture avec l’appui du Chef de projet Rte pour l’intégration de l’application au SI de l’entreprise, -Appliquer les standards et bonne pratiques (naming, structuration des workspaces, gestion des environnements, sécurité, …), -Supervision la performance et la scalabilité de l’application (volumétrie, temps de réponses, …), -Accompagner les utilisateurs sur la prise en main de Power Bi.
Offre d'emploi
Scrum Master Data Senior
Tritux France
Publiée le
Agile Scrum
Azure Data Factory
Azure DevOps
3 ans
54k-58k €
550-580 €
Paris, France
Objectifs de la mission : Uniformiser les pratiques Agile sur l’ensemble du périmètreStabiliser et sécuriser les cycles de sprint Améliorer la qualité du backlog et des User Stories · Structurer les processus de production, d’arbitrage et de communication Mettre en place un pilotage clair : capacité, consommés, KPIs, roadmap Assurer la synchronisation et la gestion des dépendances inter squads Périmètre d’intervention Animation des rituels : daily, refinements, poker plannings, sprint plannings, reviews, rétros Vision prévisionnelle de la capacité et du backlog sur les prochains sprints · Construction d’une roadmap consolidée Amélioration de la qualité des US : découpage, prérequis, critères d’acceptation Mise en place / harmonisation de la Definition of Ready et Definition of Done Alignement des pratiques entre les équipes · Production des release notes et mise en place des KPIs de delivery Standardisation des checklists de livraison / reprise de données (UAT, OAT, PRD) · Analyse de charge, détection d’anomalies, gestion proactive des risques · Mise en place d’un reporting clair et régulier vers la Data Factory.
Mission freelance
Responsable d'application Data
MLMCONSEIL
Publiée le
Big Data
6 mois
400-550 €
Nantes, Pays de la Loire
Pour le besoin de mon client basé à Nantes , je suis à la recherche d'un Responsable d'application Data Tâches Assurer le bon fonctionnement des applications : Garantir la disponibilité des applications Superviser et coordonner les mises en production Maitriser les flux entrants et sortants Participer aux chiffrage et cadrage des sujets Qualifier les anomalies et suivre leur correction Maintenir la documentation des applications Compétences Demandées Compétences ~5 ans d'expérience Maitrise des architectures Big Data Environnement technique : Cloud Azure, Databricks, Spark, Python, Scala, Power BI … Gestionnaire de configuration : git Connaissances en algorithmie A l’aise avec la manipulation de données
Offre d'emploi
Data Engineer Azure Databricks H/F
SMARTPOINT
Publiée le
Apache Spark
Azure
CI/CD
8 mois
50k-60k €
460-500 €
Île-de-France, France
Analyse des traitements existants dans le cadre de projets de migration de données Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing , incluant l'optimisation des traitements et le tuning de requêtes SQL Rédaction de la documentation technique (Dossiers d'Analyse Technique, release delivery notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
PROPULSE IT
Publiée le
Azure
BI
DevOps
24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Offre d'emploi
DATA ENGINEER
VADEMI
Publiée le
Apache Spark
Azure
Databricks
1 an
Châtillon, Île-de-France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. · Analyse des traitements existants dans le cadre de projets de migration · Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake · Développement de notebooks Databricks pour des traitements avancés de données · Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) · Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) · Réalisation de revues de code dans une logique de qualité et de bonnes pratiques · Conception et exécution de tests unitaires · Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés 3 - Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Python minimum 5 ans · SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an
Mission freelance
Data ingénieur / Software ingénieur
SMH PARTICIPATION
Publiée le
Azure
Databricks
PySpark
1 an
100-350 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un projet Data à forte valeur ajoutée, nous recherchons un Data Engineer / Software Engineer orienté Data afin de renforcer une équipe agile SAFe. Le consultant interviendra sur la conception, le développement et l’industrialisation de pipelines Data et Machine Learning dans un environnement cloud Azure. Il participera à la transformation de solutions analytiques et prototypes Data Science en solutions robustes, scalables et industrialisées. Missions principales Data Engineering / Pipelines Data & ML Conception et développement de pipelines batch sur Azure Databricks Traitement et transformation de données avec PySpark Mise en place de workflows Data industrialisés Utilisation de Delta Lake pour la gestion des données Intégration de modèles ML en collaboration avec les Data Scientists 2. Industrialisation & performance Optimisation des performances Spark : partitionnement gestion mémoire optimisation des jobs Mise en place de mécanismes de : reprise sur erreur traçabilité des traitements monitoring des pipelines Software Engineering / Développement Développement de packages Python industrialisés Conception d’API (Azure Functions / Container Apps) Respect des standards de développement : tests unitaires qualité du code documentation CI/CD Contribution projet & Agile Participation aux phases projet : étude de faisabilité conception développement mise en production (MEP) Participation aux activités RUN et amélioration continue Contribution active aux cérémonies Agile SAFe
Mission freelance
Data Engineer Python / Big Data
STHREE SAS
Publiée le
Big Data
Data Engineering
PySpark
6 mois
Paris, France
Notre client est un acteur majeur du secteur bancaire, reconnu pour sa capacité d’innovation et sa transformation digitale. Dans le cadre du renforcement de ses équipes Data au sein des Risques de Marché , nous recherchons un(e) Data Engineer Python / Big Data . Intégré(e) à une équipe Agile, vous interviendrez sur des projets stratégiques liés aux calculs réglementaires et à la transformation des plateformes data vers des architectures temps réel. Vos responsabilités : Concevoir et développer des pipelines de données performants (Python, PySpark) Participer à l’ évolution du Data Warehouse Optimiser les flux de données et améliorer les performances de traitement Mettre en place des solutions de monitoring et d’alerting temps réel Développer des dashboards de suivi (Power BI, Elasticsearch) Garantir la qualité, la fiabilité et la traçabilité des données Participer à l’industrialisation des traitements (CI/CD, automatisation) Collaborer avec les équipes métiers (risques, finance) Environnement technique Langages : Python, SQL Big Data : PySpark, Kafka Cloud : GCP (BigQuery) Orchestration : Airflow, DBT DevOps : Docker, Jenkins, Terraform / Terragrunt, CI/CD BI / Monitoring : Power BI, Elasticsearch Outils : Git, Linux Méthodologie : Agile / Scrum
Offre d'emploi
Data Governance Manager – Stewardship & Adoption sur Bordeaux
EterniTech
Publiée le
Data governance
Data management
Microsoft Power BI
3 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes client un Data Governance Manager – Stewardship & Adoption sur Bordeaux Expérience : mini 5 ans en Data Gouvernance Localisation : Bordeaux Démarrage asap pour 5 mois contexte de la mission et l’équipe Chez mon client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents • capacité à structurer et animer une communauté de Data Stewards • capacité à embarquer des parties prenantes variées et à conduire le changement • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation • approche pragmatique et orientée adoption / impact Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Offre fictifs et offre non sérieuses
- Retour d'expérience démission-reconversion
- Vue CV
5060 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois