L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 004 résultats.
Offre d'emploi
Consultant Senior Data & Finance – Étude de Faisabilité SI Finance
VISIAN
Publiée le
Architecture
Data management
3 ans
40k-44k €
450-490 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’un programme stratégique de transformation des systèmes d’information Finance, une organisation internationale souhaite étudier l’intégration de données financières issues de multiples entités opérationnelles vers des datamarts Finance Groupe. L’environnement est caractérisé par : une forte hétérogénéité des systèmes (multi-ERP), des niveaux de maturité variables selon les entités, une gouvernance des données décentralisée. La mission s’inscrit dans une phase de cadrage stratégique, exclusivement orientée analyse et aide à la décision (aucune activité de développement ou de build). Missions Analyser les processus Finance (comptabilité fournisseurs, clients, grand livre) au sein de différentes entités Identifier les besoins métiers liés à l’alimentation de datamarts Finance Évaluer la qualité, la disponibilité et la cohérence des données existantes Étudier les architectures SI et data en place (ERP, flux, stockage) Identifier et comparer différents scénarios d’intégration des données (batch, API, cloud) Analyser les contraintes techniques, organisationnelles et réglementaires Évaluer les modèles de gouvernance et les règles de gestion des données Identifier les risques, dépendances et proposer des plans de mitigation Construire des scénarios de faisabilité (coûts, complexité, scalabilité) Produire une recommandation argumentée pour orienter la décision (Go / No Go) Contribuer aux comités de pilotage et aux reportings d’avancement Livrables attendus Analyse des processus Finance (AP / AR / GL) Cartographie des systèmes (ERP et data) Évaluation de la qualité et de la structure des données Scorecards de faisabilité par périmètre Étude des patterns d’intégration Schémas d’architecture cible (niveau macro) Analyse des risques et contraintes Scénarios comparatifs de mise en œuvre Rapport de faisabilité consolidé avec recommandation Supports de pilotage projet Environnement technique ERP : multi-environnements (type SAP, Sage, IFS, Navision) Data : plateformes data groupe / data cloud Intégration : batch, API, flux inter-systèmes, cloud-to-cloud Gouvernance : standards data et cybersécurité groupe
Offre d'emploi
📩 Data Engineer – Data Quality & Governance
Gentis Recruitment SAS
Publiée le
Agile Scrum
Apache Spark
API
1 an
Paris, France
Contexte de la mission Dans le cadre du développement de son équipe Data Accelerator (DAC), notre client recherche un Data Engineer confirmé orienté Data Quality et Data Governance. DAC est une équipe transverse en charge d’accompagner les équipes métiers et IT sur l’ensemble de la chaîne de valeur de la donnée : collecte, ingestion, transformation, industrialisation, gouvernance et optimisation des performances. L’environnement s’appuie principalement sur les technologies AWS, Databricks, Dataiku et Collibra, avec un fort enjeu autour de la qualité, de la fiabilisation et de la structuration des données au sein du Data Lake. Le consultant interviendra dans un contexte stratégique avec une forte collaboration avec les équipes Data Analysts, Data Scientists ainsi qu’avec le Chief Data Officer. Missions principalesQualification et gestion des données Captation des données structurées et non structurées provenant de multiples sources Intégration et supervision des flux de données Structuration de la donnée (normalisation, sémantique, référentiel) Cartographie des données disponibles Nettoyage des données (suppression des doublons, contrôle qualité) Validation et qualification des données avant intégration dans le Data Lake Participation à la création et à l’amélioration des référentiels de données Industrialisation et performance Développement et optimisation des traitements data Amélioration des performances et maîtrise des coûts des plateformes data Participation aux développements correctifs, évolutifs et adaptatifs Contribution aux dossiers d’architecture Production des tableaux de bord de suivi Gouvernance & collaboration Participation à la définition de la politique data Respect des standards de sécurité, gouvernance et conformité Collaboration avec les équipes métiers, IT et gouvernance data Contribution à l’industrialisation des cas d’usage Data & GenAI
Mission freelance
Data Governance Manager
Codezys
Publiée le
Conduite du changement
Data governance
Data management
6 mois
330-400 €
Bordeaux, Nouvelle-Aquitaine
Objectifs de la prestation Dans le cadre de la consolidation de sa gouvernance data, l'entreprise souhaite renforcer et structurer ses pratiques en s'appuyant sur un environnement technologique avancé, comprenant les plateformes Snowflake, Power BI et Datahub. Pour cela, l'équipe Data Management, composée de 4 professionnels, recherche un expert transverse afin de piloter la structuration, le déploiement et l'animation de la gouvernance opérationnelle. Mandat confié Déploiement du modèle de Data Stewardship Clarifier les rôles, périmètres et rituels entre Data Owners, Data Stewards et équipes techniques. Créer des kits d'onboarding, des standards et des supports pour accompagner les Data Stewards dans leur mission. Lancer et animer la communauté de Data Stewards afin de promouvoir une gouvernance partagée et efficace. Adoption & Data Catalog Renforcer l'adoption du Data Catalog (Datahub) et promouvoir les bonnes pratiques de gouvernance associées. Accélérer la documentation des assets data prioritaires pour assurer une meilleure compréhension et exploitation des données. Étendre la couverture du catalogue aux traitements d'intelligence artificielle (IA), intégrant ainsi la gouvernance dès la conception. Animation & transverse Organiser des ateliers avec les utilisateurs pour favoriser l'appropriation des outils et des méthodes de gouvernance. Faire émerger les irritants et structurer un backlog transverse pour répondre aux enjeux opérationnels. Intégrer la gouvernance lors des phases de cadrage des projets, en adoptant une approche 'governance by design'. Réactiver les communautés existantes, notamment les référents Power BI, afin de maintenir une dynamique de partage et de collaboration. Profil recherché Le candidat idéal devra posséder une expertise transverse en gouvernance data, avec une capacité à intervenir à la fois au niveau stratégique et opérationnel. Il devra démontrer des compétences en animation de communautés, en structuration de processus et en animation d'ateliers, tout en étant capable de travailler en étroite collaboration avec les équipes techniques et métier. Les propositions devront détailler la méthodologie proposée pour atteindre ces objectifs, ainsi que la démonstration de capacités similaires dans des environnements complexes et structurés.
Offre d'emploi
Data Engineer Cloud H/F
FED SAS
Publiée le
55k-65k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris, un Data Ingénieur Cloud H/F dans le cadre d'un CDI. Rattaché à la DSI, vous contribuez à la conception, à l'industrialisation et à la fiabilisation de la plateforme data de l'entreprise. Votre rôle est clé pour garantir la disponibilité, la qualité et la sécurisation des données utilisées par les équipes BI, analytics et métiers Vos principales missions : Développement et gestion des pipelines data * Concevoir et maintenir des pipelines d'ingestion et de transformation des données * Contribuer à la structuration et à la performance du Data Lake et du Data Warehouse * Assurer la disponibilité et la fiabilité des flux de données Industrialisation de la plateforme data * Participer à la mise en place de standards de développement et de déploiement * Contribuer à l'automatisation et à l'industrialisation des pipelines data * Garantir la robustesse et la performance des traitements Qualité, sécurité et gouvernance des données * Mettre en place des contrôles de qualité et de traçabilité des données * Contribuer au monitoring et à l'observabilité de la plateforme * Veiller au respect des exigences de sécurité et de conformité (RGPD) Collaboration transverse * Travailler en étroite collaboration avec les équipes BI, Data Analytics et IT * Participer à la documentation et au partage de bonnes pratiques * Contribuer à la structuration et à l'amélioration continue de la Data Factory
Mission freelance
Senior Data Engineer Palantir
Orcan Intelligence
Publiée le
Big Data
Databricks
9 mois
600-800 €
Paris, France
Orcan Intelligence recherche pour l'un de ses clients dans le secteur de la Finance un consultant Data Engineer senior sur les sujets Palantir . Voici les livrables attendus : Développer des pipelines de données pour nos fondations dans Palantir Foundry Construire, maintenir et documenter des pipelines, notamment pour l'intégration de données dans notre modèle analytique (architecture medallion). Etablir des Contrôles de qualité, tests,........ etc
Mission freelance
Data Scientist IA / NLP
ALLEGIS GROUP
Publiée le
Data science
1 an
Île-de-France, France
Suite à la mise en production d’une solution de relation client basée sur l’IA (Speech-to-Speech) , Le Client lance le déploiement à grande échelle de cette solution sur plusieurs canaux digitaux, dans une logique d’ industrialisation . Dans ce cadre stratégique, il souhaite renforcer ses équipes Data afin d’accompagner deux chantiers majeurs : Amélioration et industrialisation du monitoring Mise en place de Test Ops avancés , incluant la création d’une Test Case Factory “IAisée” : Génération automatique de scénarios de tests Approche Data Science pour valider chaque nouvelle version Garantir la robustesse et la performance des solutions déployées Plusieurs Data Scientists sont recherchés pour scaler aux côtés des équipes . MISSIONS : Concevoir et améliorer les dispositifs de monitoring des solutions IA en production Définir et implémenter une usine de tests automatisés basée sur l’IA Travailler sur des problématiques de texte et de langage (Speech, NLP, LLM, agents intelligents) Collaborer étroitement avec les équipes Produit, Tech et Data dans un contexte d’industrialisation
Mission freelance
Profil RDARR, data quality, data lineage, data governance
Mon Consultant Indépendant
Publiée le
Data management
6 mois
480-520 €
Paris, France
Pour le compte de l’un de nos clients du secteur bancaire , nous recherchons un consultant spécialisé en data management réglementaire , avec une expertise sur les dispositifs RDARR et BCBS 239 . Le consultant interviendra sur les sujets de data quality, data lineage et data governance , en contribuant à la mise en conformité et à l’amélioration des dispositifs de gestion des données. Il participera à l’analyse des processus, à la définition des règles de gouvernance et au suivi des exigences réglementaires. Le poste requiert une solide connaissance des environnements bancaires et des enjeux liés à la qualité et à la traçabilité des données.
Offre d'emploi
Data Engineer Adtech Big Query
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
45k-50k €
Rennes, Bretagne
Contexte de la mission : Le client a pour mission d'accompagner les agences médias nationales et locales, les annonceurs grands comptes et les acteurs publics au travers de plans média 360° (TV Segmentée, Streaming, display, programmatique, social...) permettant de communiquer de manière ciblée auprès des intentionnistes BtoC et BtoB au travers de différents formats publicitaires. La mission sera encadrée par le responsable datas & adtech, le product manager, et les parties prenantes (accounts managers et commerciaux). Objectifs et livrables : Finalités du poste : • Construire et maintenir les flux de données nécessaires à la Customer Data Platform (CDP). • Mettre la donnée à disposition des Account Managers pour répondre plus vite et mieux aux briefs. • Automatiser les traitements datas (datas propriétaires, datas des plateformes publicitaires) et mettre en place les outils internes en utilisant les capacités de l'IA (nouvelles activités au sein de l'entité). • Intégrer dans notre stack technique les outils publicitaires du marché pour la collecte, le ciblage et l'activation de données et la mise en place de campagnes publicitaires sur différent canaux. Missions principales : • Organiser, structurer, exploiter la donnée dans la CDP. • Maitriser les scripts d'ingestion (Python, SQL BigQuery) et en assurer le bon fonctionnement quotidien. • Intégrer toutes les données internes utiles à l'entreprise en collaborant avec les autres équipes (Développeurs, Data, Produit, IT et Juridique). • Construire les dashboards de l'entité pour piloter la pertinence de notre donnée, comprendre et améliorer la monétisation de nos médias, et le pilotage de l'entité (clients, briefs, campagnes, performances). • Développer les outils internes pour accélérer les opérations (réponse aux briefs, automatisation de mise en place de campagnes) en collaboration étroite en avec les Account Managers. • Intégrer les adtechs (alternatives IDs, dsp Equativ & The Trade Desk, pixels et audiences tracking, autres solutions du marché - metabase, mindmetrics) Technologies : • Développements web et back pour les outils internes • Pilotage activité et pilotage interne (BigQuery, Metabase) • Intégration de solutions marchés(DSP GAM, Equativ, TheTradeDesk, First-ID,...) Référence de l'offre : 1ocsrdgcap
Mission freelance
Data engineer analytics H/F - Tarare (69) ou St Paul Trois Châteaux (26)
LeHibou
Publiée le
Microsoft Fabric
Snowflake
6 mois
450-550 €
Tarare, Auvergne-Rhône-Alpes
Notre client dans le secteur Industrie recherche un Data engineer analytics H/F Descriptif de la mission: Dans le cadre des objectifs de la Direction de la Transformation Digitale et de la Direction des Systèmes d’Information, le Data Engineer Analytics a pour mission de concevoir, développer, industrialiser et maintenir les solutions data du SI, basées principalement sur Microsoft Fabric et Azure Integration Services . Il contribue à garantir la qualité , la fiabilité , la performance , la sécurité et la maîtrise des coûts des traitements et plateformes analytiques. Missions : Développement & Maintenance de la plateforme analytique · Concevoir, développer et maintenir les flux d’intégration de données entre les systèmes internes et externes. · Concevoir, développer et maintenir les dashboards groupes. · Accompagner les métiers sur les bonnes pratiques et l’utilisation de nos outils de Dataviz et les données mises à disposition. · Assurer la disponibilité, la performance et la sécurité des services analytiques. · Participer à la définition et à la mise en œuvre des standards de développement et d’intégration. · Garantir la qualité des développements en respectant les bonnes pratiques Analytics, et les normes de sécurité. Support aux projets & coordination · Intervenir comme référent technique auprès des projets nécessitant des ressources analytiques. · Accompagner les équipes dans la conception, l’implémentation et l’industrialisation des flux. · Prendre en charge le maintien en condition opérationnel sur le périmètre analytique. Amélioration continue & innovation · Proposer des optimisations pour renforcer la robustesse, la performance et la maintenabilité des solutions. · Contribuer à la veille technologique sur les outils et services analytiques (Microsoft Fabric, ingestion, qualité, gouvernance…). · Participer à la démarche Green IT en optimisant les ressources cloud et en appliquant les bonnes pratiques FinOps. Documentation & qualité · Documenter les flux, pipelines, architectures, dashboard et bonnes pratiques techniques. · Contribuer à la mise à jour du référentiel documentaire. · Participer aux audits internes pour garantir la qualité, la sécurité et la conformité des développements. Indicateurs de performance · Qualité et fiabilité des pipelines (taux de succès, temps de traitement, disponibilité). · Respect des délais et de la charge prévue dans les projets. · Qualité des livrables : conformité, maintenabilité, documentation. · Taux d’incidents et rapidité de résolution. · Satisfaction des équipes projets et métiers.
Offre d'emploi
Consultant en gouvernance data - SI assurance H/F
VIVERIS
Publiée le
45k-55k €
France
Contexte de la mission : Viveris vous propose un poste de Consultant SI Data, avec une expérience confirmée dans le pilotage de projets transverses sur DataGalaxy ainsi que sur les aspects réglementaires. Dans le cadre d'un projet de gouvernance des données, notre client, acteur du secteur assurantiel, déploie progressivement la solution auprès des différentes équipes métiers et IT. En tant qu'expert DataGalaxy, vous accompagnez les équipes à chaque étape du déploiement et garantissez l'appropriation de la solution ainsi que la mise en oeuvre des premiers cas d'usage. Responsabilités : Piloter le déploiement de DataGalaxy dans le respect de la gouvernance et du planning ; Accompagner et former les équipes métier et IT à un usage avancé de la solution ;Concevoir et implémenter des cas d'usage structurants au sein du Data Catalog ; Paramétrer et optimiser l'intégration de DataGalaxy dans l'écosystème data ; Apporter une expertise en gouvernance des données et diffuser les bonnes pratiques.
Offre d'emploi
Responsable Practice SRE
RIDCHA DATA
Publiée le
DevOps
Docker
Helm
1 an
Ivry-sur-Seine, Île-de-France
Contexte Dans le cadre du développement de sa Direction des Services, un acteur majeur du numérique recherche un(e) Responsable Practice SRE pour piloter et structurer la démarche Site Reliability Engineering au sein de la DSI. Vos missions Définir et piloter la stratégie SRE de l’entreprise Superviser la fiabilité, la performance et la sécurité des applications hébergées dans le cloud Accompagner les équipes dans la mise en œuvre des bonnes pratiques SRE / DevOps Automatiser les processus opérationnels et réduire les interventions manuelles Structurer et animer la communauté SRE afin d’harmoniser les pratiques Piloter la gestion proactive des incidents et les analyses post-mortem Superviser l’intégration des applications aux services d’infogérance Sélectionner et déployer les outils nécessaires à la pratique SRE Collaborer avec les équipes Dev, Ops, Sécurité et Cloud Platform Assurer une veille technologique continue sur les pratiques et outils SRE Responsabilités principales Élaborer la roadmap SRE : résilience, capacity planning, performance, disponibilité Encadrer et accompagner les équipes SRE dans leur montée en compétences Garantir le respect des SLA et l’amélioration continue des services Participer aux audits sécurité et conformité Promouvoir les bonnes pratiques cloud auprès des équipes métiers / BU Compétences techniques requises Très bonne maîtrise des environnements Cloud Expertise en : Linux / Unix Docker Kubernetes CI/CD Helm Terraform Ansible Solide expérience sur les outils de : Monitoring / Observabilité Logging / Supervision Bonne culture DevOps / SRE / Cloud Native
Mission freelance
Développeur/ Chef de Projet Data (h/f)
emagine Consulting SARL
Publiée le
Microsoft Power BI
3 ans
400-550 €
Île-de-France, France
À partir d’une liste prédéfinie d’environ 1 200 rapports Business Objects existants, l’objectif est de challenger les métiers propriétaires afin de : 1. Décommissionner et arrêter un maximum de rapports BO non utilisés ou obsolètes. 2. Orienter les métiers vers des rapports Power BI existants lorsque ceux-ci répondent déjà au besoin couvert par les rapports BO. 3. En dernier recours, lorsque les deux points précédents ne sont pas applicables, migrer le nombre limité de rapports BO restants vers de nouveaux rapports Power BI. L’objectif principal est donc de réduire significativement le parc de rapports BO, de favoriser l’usage des rapports Power BI existants, et uniquement lorsque le besoin métier est avéré, de développer de nouveaux rapports Power BI en remplacement des rapports BO concernés. EXPERIENCE PROFESSIONNELLE REQUISE • Expérience de 7 ans minimum en tant que data analyste • Experience de 5 ans minimum en tant que chef de projet data COMPETENCES REQUISES • Connaissance Business Object • Connaissance Power BI • Connaissance SSIS • Connaissance de la méthode agile Compétence – Nice to have ▪ Connaissance du monde de l’assurance/Assistance
Mission freelance
Data Engineer Python – Data Platform & Data Governance
Deodis
Publiée le
BI
Data Engineering
Data quality
1 an
340-500 €
Île-de-France, France
Dans le cadre de l’évolution de sa Data Platform, le client recherche un Data Engineer Python pour intervenir au sein de l’équipe DataHub Core Platform. La mission consiste à contribuer aux projets de migration vers une nouvelle plateforme, au développement de nouveaux cas d’usage BI ainsi qu’à la mise en place de workflows en Python. Le consultant participera également à des projets stratégiques tels que le Transaction Profiling, le Data Quality Framework (DQF) et le Data Lineage, avec pour objectif d’améliorer la qualité, la fiabilité et la traçabilité des données. Il sera aussi en charge du développement de modules Python mutualisés, réutilisables sur l’ensemble des projets data, dans un environnement dynamique et orienté gouvernance des données.
Mission freelance
Expert Collibra technico-fonctionnel
Inventiv IT
Publiée le
Agile Scrum
AWS Cloud
Collibra
5 mois
660-720 €
Paris, France
Nous recherchons un expert Collibra technico-fonctionnel avec plus de 15 ans d'expérience dans le cadre d'une mission au forfait avec engagement de résultat sur une période de 5 mois. Dans un contexte groupe avec un socle Data existant, une dizaine de direction métiers et un outil Collibra mise en place. Certifications requises Certification Collibra Certification Agile / Scrum Certification RGPD / CNIL Profil recherché Expérience (15 ans d'expériences minimum) Minimum 10 ans d’expérience data Minimum 4 ans en Data Governance Expérience significative sur Collibra (implémentation et exploitation) Mise en place de workflows automatisés (au moins 2) Expérience d’intégration avec des SI (connecteurs, APIs…) Compétences techniques Collibra (configuration, workflows, administration) Data Governance & Data Catalog Data Engineering / BI / Data Management Environnements : Databricks, AWS, outils de metadata (Collate…) Méthodologies Agile (Scrum) Certifications requises Certification Collibra Certification Agile / Scrum Certification RGPD / CNIL Soft skills Autonomie et rigueur Capacité d’analyse et de proposition Excellentes compétences en communication Capacité à interagir avec des profils techniques et métiers Organisation & environnement Encadrement : Product Owner Data Catalog Interaction avec équipes Data (DSI, Data Factory) Mode de travail hybride : Non négociable 3 jours/semaine sur site (Paris) 2 jours/semaine en télétravail Entretien technique en présentiel à Paris Modalités Mission au forfait avec engagement de résultat Suivi mensuel via livrables et compte-rendu d’activité Validation régulière en COPIL
Mission freelance
Data Ingénieur H/F
Insitoo Freelances
Publiée le
Google Cloud Platform (GCP)
HFSQL
Microsoft Power BI
2 ans
309-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Ingénieur H/F à Lille, France. Contexte : Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Les missions attendues par le Data Ingénieur H/F : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité Intègre les éléments Structure la donnée (sémantique, etc.) Cartographie les éléments à disposition Nettoie la donnée (élimination des doublons, ) Valide la donnée Éventuellement, il crée le référentiel de données SES LIVRABLES : Data Lake approprié et partagé et son dimensionnement Cartographie des données Les éléments permettant de garantir la qualité de la donnée
Mission freelance
Expert Data Engineer – Looker Core
Nicholson SAS
Publiée le
BigQuery
IA
Legacy System Migration Workbench (LSMW)
6 mois
700-850 €
Paris, France
Contexte de la mission Dans le cadre d’un projet stratégique de migration vers le Cloud (« Data Move To Cloud »), vous rejoignez une entité majeure du secteur du transport aérien. Votre rôle sera d’évaluer et d’accompagner l’adoption de Looker Core comme futur standard de Dataviz du groupe. Missions principales Accompagnement de POCs : Piloter le développement technique et soutenir les équipes métiers dans la réalisation de leurs preuves de concept. Expertise Conseil : Apporter un regard critique et structurant sur l'architecture, la sécurité et l'optimisation FinOps liées à l'outil. Acculturation & Pédagogie : Former les utilisateurs finaux et assurer l'interface technique avec les équipes IT (Ops, Architectes). Étude Stratégique : Évaluer la capacité de Looker à répondre aux nouveaux enjeux (analyses ad-hoc, IA conversationnelle) et sa pertinence pour remplacer les solutions legacy (SAP BO, Spotfire). Informations pratiques Lieu : Paris (Rythme hybride : 2 à 3 jours de télétravail / semaine). Démarrage : ASAP. Durée : Jusqu’au 11/11/2026 (Visibilité long terme). TJM : Selon profil (séniorité et expertise) Note : Looker Studio est hors périmètre. Le client cherche un profil expert en Looker Core/ LookML. Looker Studio et ses dérives ne rentrent pas en perspective.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5004 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois