Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 737 résultats.
Offre d'emploi
Intégrateur N2 des applications informatiques
KEONI CONSULTING
Publiée le
Big Data
Linux
Openshift
18 mois
20k-60k €
100-350 €
Niort, Nouvelle-Aquitaine
CONTEXTE Contexte de la mission : Prise en charge de la pré-production et de la mise en exploitation des différentes évolutions des applications informatiques ainsi que les maintenances, tout ceci dans un environnement multiplateforme. MISSIONS Contribuer au bon déroulement de la phase de pré production des projets, et dans ce cadre vous assurerez : . La réception et l’analyse des dossiers d’homologation, . La conception des chaines de traitements (automatisation, ordonnancement, …), . Le développement des procédures d’exploitation, . Le bon déroulement des tests d’homologation, . La réalisation et la mise à disposition des dossiers d’exploitation, . La livraison des applications dans l’environnement de production, . La communication avec les autres entités (développement, supports, planning, exploitation…), . Le transfert de compétences vers les équipes de Production dans l’accompagnement aux changements, . Le suivi des premières exploitations et la période de VSR(Vérification de Service Régulier). ACTIVITES : Assure le suivi et le fonctionnement optimal du périmètre technique (outils, systèmes, traitements et infrastructures techniques) dont il a la charge. Suit et analyse sa performance et sa qualité ; met en place des mesures visant à les améliorer. Elabore les règles d’utilisation, en conformité avec les normes / standards de l’entreprise, dans le respect des contrats de service. Documente, promeut et contrôle leur application. Contribue au dispositif de gestion de la qualité, sur son périmètre. Etudie et propose des évolutions permettant de pérenniser et d'optimiser le fonctionnement et la sécurité des outils, systèmes, traitements et infrastructures techniques; les met en œuvre. Valide l’installation et l’intégration des nouveaux outils, systèmes, traitements et infrastructures techniques, dans l’environnement de production. Réalise et coordonne des opérations de changement et de maintenance en veillant à leur qualité. Traite les incidents ou problèmes (du diagnostic à la remise en service). Assure la communication avec les utilisateurs sur la gestion des incidents ou à l'occasion de changements. Gère les droits d’accès aux SI en fonction des profils. Réalise le transfert de compétences et le support technique sur son périmètre. Effectue une veille technologique sur son périmètre technique. Met en œuvre les normes et principes de la politique de sécurité du SI de l’entreprise. PROFIL Formations et expériences : De formation Bac+2 minimum, avec une bonne expérience de la Production, vous avez une bonne connaissance de l’informatique en générale. Expérience professionnelle > 5 ans. Expériences requises dans les domaines : Indispensables : Unix, AIX, Linux (développement de scripts en Shell) Maitrise de l’ordonnanceur Control-M Outil de déploiement : Harvest Connaissances DATA / IA (Cloudera, Talend, Informatica, Azure Databricks) Souhaitées : Connaissance SGBD Oracle Exacc MVS/Z-OS (développement de JCLs) Connaissance SGBD DB2 Openshift Serveurs d’automatisation : Jenkins
Mission freelance
Data Engineer GCP (H/F)
CELAD
Publiée le
1 an
400-440 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Mission freelance
Master Data Management Specialist
Codezys
Publiée le
CRM
Gouvernance
Migration
12 mois
Grand Londres, Royaume-Uni
Objet de l'appel d'offres : Ce projet vise à soutenir la consolidation, le nettoyage et la standardisation des données relatives aux comptes clients provenant de sources legacy multiples. L'objectif ultime est de créer un ensemble de données maître précis et uni, destiné à être migré vers une nouvelle plateforme CRM Salesforce. Cette initiative s'inscrit dans la stratégie du groupe Veolia, alignée sur la vision de devenir une organization largement prête pour l'intelligence artificielle d'ici 2027, dans le cadre du plan GreenUp. Objectifs et livrables Analyse et Profilage des Données : Examiner l'ensemble des données clients existantes, identifier les problématiques de qualité de données, duplications, incohérences et lacunes. Stratégie de Nettoyage des Données : Mettre en œuvre une méthodologie exhaustive de nettoyage, incluant la déduplication, la standardisation, et la validation selon des règles métier prédéfinies. Consolidation des Données : Assister à la fusion des enregistrements clients issus de diverses sources à l'aide d'algorithmes de correspondance et de règles métier pour générer des enregistrements "golden". Préparation à la Migration Salesforce : Structurer les données nettoyées conformément au modèle de données Salesforce et préparer des jeux de données prêts pour la migration. Assurance Qualité : Mettre en place des contrôles de validation, réaliser des audits de qualité de données, et garantir leur exactitude avant la migration. Documentation : Élaborer, suivre et ajuster une documentation détaillée incluant des dictionnaires de données, des règles de transformation, des systèmes de gestion de la qualité et des manuels de migration. Collaboration avec les Parties Prenantes : Collaborer étroitement avec les équipes internes pour résoudre les conflits de données, valider les règles métier, et assurer l'alignement avec les besoins opérationnels. Formation et Transfert de Connaissances : Accompagner les ressources internes concernant les bonnes pratiques de gouvernance de données et la maintenance continue des données. Profil des candidats Les soumissionnaires doivent présenter une expertise avérée dans la gestion de projets de consolidation et de migration de données, avec une expérience significative en environnement CRM, notamment Salesforce, ainsi qu'une forte compréhension des enjeux de gouvernance des données. La capacité à travailler en équipe, à documenter avec précision les processus, et à transférer ses connaissances est également essentielle.
Mission freelance
Data Engineer Senior – Databricks / AWS / Airflow (Core Data Platform)
CHOURAK CONSULTING
Publiée le
Apache Airflow
AWS Cloud
CI/CD
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe Data stratégique au sein d’un acteur international, avec des enjeux forts autour de la performance financière et de la fiabilité des données RH & Finance . 🎯 Contexte de la mission Vous intégrerez une équipe Core Data Product composée d’un Product Manager et de plusieurs Data Engineers. La Data est au cœur des décisions stratégiques. L’équipe est actuellement engagée dans une revue globale de son architecture et de sa modélisation , avec un objectif clair : moderniser la plateforme et transformer la stack legacy vers les nouveaux standards Data Platform. ⚙️ Missions principales Concevoir, construire et maintenir des pipelines et infrastructures data robustes et performantes . Optimiser l’architecture et la modélisation des flux. Participer à la transformation vers les nouveaux standards de la Data Platform. Garantir la qualité, la fiabilité et la gouvernance des données (Finance & HR). Assurer un RUN de qualité selon le principe “You build it, you run it”. Promouvoir les bonnes pratiques : CI/CD, revue de code, qualité du code . Garantir la sécurité et la conformité des données (RGPD). Évoluer en environnement Agile au sein d’une équipe internationale (anglais quotidien).
Mission freelance
Consultant(e) SAP FICO - Data Migration S/4 - IDF
Signe +
Publiée le
SAP FICO
3 mois
550-700 €
Le Plessis-Robinson, Île-de-France
Dans le cadre d’un programme de transformation SAP, notre client recherche un Consultant SAP FI/CO pour intervenir sur un projet de migration de données ECC vers S/4HANA. Le consultant intégrera l’équipe technico-fonctionnelle Data Migration et interviendra principalement sur la définition et la formalisation des règles de transformation et de mapping des données Finance et Controlling. Missions Analyser les modèles de données FI/CO entre ECC et S/4HANA . Définir et documenter les règles de transformation, de mapping et de nettoyage des données . Participer aux ateliers avec les équipes métiers Finance, Controlling et gestion de projet . Contribuer à la conception des objets de migration et des templates de reprise de données . Accompagner les équipes Data Migration lors des phases de migration et de tests (Unit Tests, SIT, UAT) . Identifier les écarts, risques et impacts liés à la migration et garantir la cohérence des données dans S/4HANA. 📍 Localisation : 92 🏢 Présence : 3 jours sur site / 2 jours télétravail 📅 Démarrage : ASAP ⏳ Durée : Mission longue (programme stratégique S/4HANA) 💰 TJM : 600-700 € selon expérience 🌍 Langue : Anglais intermédiaire requis
Mission freelance
Chef de Projet / Lead Sécurité Data & Cloud (GCP) H/F
Inventiv IT
Publiée le
BI
Data governance
Google Cloud Platform (GCP)
6 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission Suite à un audit interne, la mission vise à : Structurer une roadmap sécurité Data Renforcer la protection des données Améliorer le maintien en condition opérationnelle (PRA / PRI) Sécuriser la migration vers le Cloud (GCP) Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission Structurer et piloter la sécurisation du patrimoine Data Mettre en œuvre les exigences PCI / PRI Data Revoir et fiabiliser les habilitations On Prem & Cloud Renforcer la gouvernance des données sensibles Sécuriser les outils Data / BI / Data Science Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Compétences techniques clés Architecture sécurité Cloud (GCP) BigQuery security & Data masking IAM avancé PRA / PRI Data Governance Sécurité applicative Data Environnements Hadoop / Oracle Soft skills Leadership transverse Capacité à dialoguer avec RSSI & CoDir Structuration roadmap Vision stratégique et opérationnelle Responsabilités principales Sécurisation des accès Revue des habilitations On Prem et Cloud Mise en œuvre du principe de moindre privilège Gestion des comptes applicatifs et nominatifs Automatisation des habilitations Cloud Amélioration du processus de revue des droits PRA / PRI Data Structuration PCI / PRI Data Cartographie applicative & technique Identification des criticités Organisation sauvegardes et tests de restauration Priorisation PCI Cloud Gouvernance & protection des données Revue criticité données (RH, Finance, SP, IARD) Anonymisation / pseudonymisation / masking Harmonisation vers masking dynamique BigQuery Auditabilité & conformité RGPD Sécurisation des outils Cartographie des principes SSO Sécurisation outils BI & Data Science Implémentation OAuth2 / SSO Ségrégation projets GCP Coordination sécurité Interface RSSI / DDSI / Data Office Intégration périmètre Data dans outils internes Suivi vulnérabilités Animation comités sécurité Data Environnements techniques Cloud : GCP, BigQuery, DBT, Data Fabrik Cloud On Prem : Hadoop, Hive, Oracle, SAS, Informatica / PowerCenter, NAS Outils Data / BI / Data Science : Dataiku, BO, Tableau, RStudio, Jupyter, IDE Python Référentiels & sécurité : LeanIX, IAM, OAuth2 / SSO
Offre d'emploi
Expert Google Workspace Data & IA
Management Square
Publiée le
BigQuery
Google Workspace
IA Générative
1 an
47k-55k €
480-530 €
Niort, Nouvelle-Aquitaine
Expert Senior Google Workspace, Data & IA Contexte de la mission : Dans le cadre d’un programme de transformation digitale, nous recherchons un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA . Le profil recherché est un consultant hybride à forte valeur ajoutée , capable d’administrer l’environnement collaboratif, d’analyser la donnée d’usage (BigQuery / Looker), de développer des solutions d’automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique afin de mesurer l’adoption des outils et la performance des processus métiers Data Analysis (BigQuery) Exploitation avancée des données (logs d’audit Google Workspace, données métiers) via requêtage SQL optimisé Structuration des tables et gestion des coûts de stockage et de calcul Pilotage RSE & Usages Définition et mise en place d’indicateurs de suivi sur l’infobésité et l’hyperconnexion Contribution aux démarches de Qualité de Vie au Travail (QVT) et de sobriété numérique Volet IA Générative (Gemini) & Innovation Centre d’Expertise IA Contribution à la structuration du centre d’expertise IA Rôle de référent technique et fonctionnel sur la solution Gemini Acculturation & Animation Animation d’une communauté d’ambassadeurs IA Organisation de webinars , rédaction de guides de bonnes pratiques et identification de cas d’usage à forte valeur ajoutée Intégration Métier Déploiement de solutions IA opérationnelles : assistance rédactionnelle synthèse documentaire assistants virtuels adaptés aux besoins métiers Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité Administration avancée de la console Google Workspace Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes cybersécurité Automatisation des Processus Développement d’applications métiers via AppSheet (Low-code) Développement de Google Apps Script pour automatiser les tâches manuelles et remplacer des fichiers Excel complexes Transition Office vers Google Accompagnement technique et méthodologique pour la migration des outils Microsoft (Excel / VBA) vers l’écosystème Google (Sheets / Apps Script / BigQuery) Posture AMOA / PO Assistance au Product Owner dans : la définition de la roadmap produit la rédaction de User Stories la conduite du changement
Mission freelance
Développeur Python / .NET – Finance de marché (Pricing & Market Data)
Syneam
Publiée le
.NET
Finance
Python
12 mois
Hauts-de-Seine, France
Contexte : Dans le cadre des activités d’une équipe en charge des services de pricing en environnement finance de marché, nous recherchons un développeur Python /.NET pour intervenir sur un environnement technique dédié aux calculs et à l’exposition de données de valorisation. La mission s’inscrit dans un contexte de modernisation et d’expérimentation autour d’une plateforme de type “sandbox” permettant de tester et d’industrialiser de nouveaux services de pricing. Descriptif de la mission : Participer au développement et à l’évolution de services de pricing exposés via APIs. Concevoir et implémenter des composants techniques en Python et .NET . Développer et maintenir des interfaces de communication (API HTTP, gRPC, WCF). Contribuer à la structuration et à l’exposition des données de market data utilisées dans les calculs de valorisation. Intervenir sur la mise en place de services documentés via Swagger / OpenAPI . Participer aux phases de tests, validation et optimisation des performances des services. Collaborer avec les équipes quant, risk et IT afin de garantir la cohérence des calculs de pricing et des indicateurs de risque.
Offre d'emploi
Consultant·e Data Engineer – Senior / Confirmé·e
█ █ █ █ █ █ █
Publiée le
CI/CD
Python
SQL
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Développeur Data
VISIAN
Publiée le
Java
Programmation Orientée Objet (POO)
1 an
40k-45k €
400-650 €
Paris, France
Contexte Intégration d'une équipe de développeurs data (Java, Spark, Spring) dont le rôle est la mise en place de pipelines de données à destination de vues NoSQL (Cassandra, MongoDB, Elasticsearch). Expérience requise Développement objet en environnement de production Expérience de 5 ans minimum en développement data Expérience dans un grand groupe (expérience de l'inertie et des contraintes d'un groupe) Expérience sur tout le cycle de vie d'une application (besoin, conception, développement, déploiement, maintenance) Expérience souhaitée en amélioration d'une solution existante (contrainte de SLA, performance, montée en charge, refactoring, voir refonte)
Mission freelance
Data Scientist
Orcan Intelligence
Publiée le
Large Language Model (LLM)
MLOps
Python
5 mois
500-650 €
Paris, France
Nous recherchons un/e Data Scientist pour rejoindre une équipe dynamique en Région parisienne (onsite 1x par semaine). Vous participerez à la conception et à la mise en œuvre de solutions de data science et d’apprentissage automatique à fort impact, contribuant directement à la création de valeur pour l’entreprise. Missions principales Concevoir et implémenter des solutions de data science de bout en bout pour résoudre des problématiques métier. Extraire, nettoyer et analyser de grands volumes de données, notamment à l’aide de Teradata Vantage et SQL . Construire et déployer des modèles de machine learning en Python . Exploiter des feature stores pour le développement et la mise en production des modèles. Explorer et appliquer des approches en IA générative (LLM, transformers) selon les cas d’usage. Définir des stratégies de data science alignées avec les objectifs métier et la feuille de route data de long terme. Communiquer méthodologies, résultats et recommandations à des publics variés (techniques et non techniques). Préparer et présenter des analyses et recommandations claires à différents niveaux (direction, opérationnel, technique). Collaborer avec les data engineers, analystes et experts métier pour intégrer les solutions en production. Contribuer à l’amélioration continue des outils, processus et bonnes pratiques en data science.
Mission freelance
BA DATA VIZ TABLEAU
Mon Consultant Indépendant
Publiée le
Microsoft Power BI
12 mois
540-600 €
Paris, France
MERCI DE NE PAS POSTULER SI VOUS NE DISPOSEZ PAS: · Expérience en environnement bancaire · Maîtrise avancée des outils Tableau et Power BI · Excellent niveau de communication orale Notre client est une société de financement qui a lancé un projet de mise en place de l'outil DATAVIZ Tableau . Vous aurez plusieurs responsabilités au sein de l'équipe projet dont notamment : · Participer à la formalisation des formations / modes opératoires et des procédures pour acculturer les utilisateurs sur l’utilisation du Datawarehouse/ · Animer les ateliers de prototypage utilisateurs et/ou avec le prestataire, · Accompagner la réalisation des tableaux de bords « Tableau » en binôme avec un expert technique de la solution Conception des TDB et reportings sur « Tableau software» Formation de « Tableau software » Etre en lead sur la phase de conduite du changement Accompagner la structuration de la recette et la mise en qualité des données Assurer le lien avec les chefs de projet et experts
Mission freelance
Développeur Talend Confirmé – Data Engineer (H/F)
Pickmeup
Publiée le
ETL (Extract-transform-load)
Talend
1 an
400-480 €
Châtillon, Île-de-France
La mission consiste à développer de nouveaux pipelines d’intégration applicative et à assurer le maintien en condition opérationnelle des pipelines existants au sein de la plateforme Data. Missions principalesDéveloppement et intégration de données Développer et maintenir des pipelines d’intégration de données Mettre en œuvre les nouveaux besoins métiers : modélisation paramétrage développement tests Intégrer et transformer des données provenant de sources multiples Garantir la qualité et la fiabilité des flux de données Maintien en condition opérationnelle Assurer le support et la maintenance des pipelines existants Superviser les flux de données et corriger les anomalies Contribuer à la stabilité et à la performance des plateformes Gouvernance et bonnes pratiques Contribuer à la gouvernance des plateformes Data Veiller au respect des processus, normes et standards Participer à la définition et à l’amélioration des bonnes pratiques : développement architecture gestion de configuration Collaboration projet Accompagner les équipes projets (SI, Data, métiers) Participer aux échanges techniques et au partage de bonnes pratiques au sein de l’équipe Responsabilités Data Engineering Cartographier et documenter les sources de données Concevoir des solutions permettant de traiter des volumes importants de données Structurer et organiser les bases de données Contribuer à la gestion des référentiels de données Vérifier la qualité et la cohérence des données Participer aux évolutions de la plateforme Data / Data Lake Livrables attendus Développements et projets Talend Documentation technique des développements Dossiers d’architecture ou cadres techniques Cartographie des flux et des données Éléments contribuant à la qualité et à la gouvernance de la donnée
Mission freelance
DBA Études / Développeur Data (BI)
adbi
Publiée le
Maintien en condition opérationnelle (MCO)
Microsoft SQL Server
Modèle Conceptuel des Données (MCD)
12 mois
Paris, France
Contexte de la mission Le DBA Études intervient sur la conception et l’implémentation des bases de données, depuis la modélisation jusqu’à la construction et l’optimisation des requêtes, en collaboration avec les Business Analysts, analystes développeurs et référents IT Solution. Il est garant des choix techniques de modélisation des tables, de l’application des normes et processus d’industrialisation, et accompagne les projets de la phase de conception jusqu’à la mise en production. Hors projet, il contribue au Maintien en Condition Opérationnelle (MCO) des bases (livraisons, performance) et assure un support de niveau 3 pour l’analyse technique des dysfonctionnements. Missions principales Contribuer à la conception de l’infrastructure accueillant les bases de données en lien avec le Référent IT Solution. Participer au chiffrage des développements BDD et au maintien du référencement des bases hors production ainsi qu’à leur administration. Concevoir les modèles de données (MCD, MPD), réaliser les scripts de création des modèles physiques et garantir le respect des choix techniques du projet. Gérer la configuration logicielle des composants de bases de données et optimiser l’adéquation des modèles et des requêtes (indexation, partitionnement, hints…). Intégrer les composants BDD dans les versions de mise en production et contribuer aux activités de MCO et d’optimisation de performance.
Mission freelance
DATA ENGINEER DDL ( profil habilitable)
Signe +
Publiée le
Python
12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
Mission freelance
Product Leader Data
PARTENOR
Publiée le
Confluence
Gitlab
Google Cloud Platform (GCP)
1 an
400-550 €
92100, Boulogne-Billancourt, Île-de-France
Product Leader Data – Sales & Marketing Data Hub Dans le cadre du renforcement d’un Data Hub transverse dédié aux activités Sales & Marketing d’un grand groupe industriel, nous recherchons un Product Leader Data pour piloter un écosystème data stratégique centralisant des sources multiples (CRM, distribution, digital, aftersales, données tierces). La mission s’inscrit dans un environnement fortement orienté data, avec une forte exigence de qualité, de gouvernance et d’industrialisation des usages analytiques et marketing. Objectifs de la mission Contribuer à la définition, au challenge et à l’évolution de la vision produit et de la roadmap, en lien étroit avec le Product Owner. Maximiser la valeur business générée par le produit et garantir son alignement avec les besoins utilisateurs. Piloter la coordination entre équipes IT offshore, métiers et partenaires, en anticipant les risques, dépendances et obstacles. Animer les instances de gouvernance, consolider le reporting d’avancement, de coûts, de qualité et de performance. Assurer le pilotage opérationnel du produit (cycle de vie complet, incidents, continuité, obsolescence, qualité des données). Contribuer à la mise en place et au pilotage d’un semantic layer via LookML, cible stratégique pour démocratiser l’accès à la donnée via un langage métier unifié et documenté. Veiller à l’alignement avec les standards d’architecture et la cohérence du SI groupe.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1737 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois