Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Mission freelance
Senior Data / IA engineer (dataiku)
Dans le cadre de notre croissance stratégique, nous recherchons un Senior Data / AI Engineer (Dataiku) pour rejoindre notre Group Data Office , au service des métiers. Vous jouerez un rôle clé dans l’accélération de la création de nouveaux produits basés sur la donnée, l’automatisation des processus métier via l’automatisation agentique, et la prise de décisions stratégiques. Votre contribution apportera à la fois rapidité et robustesse à nos pipelines et solutions data. En collaboration avec les parties prenantes métiers, vous accompagnerez les projets de bout en bout — de la phase d’idéation et de prototypage rapide jusqu’au déploiement en production. Donner le pouvoir de la donnée aux décisions Notre client est un acteur européen majeur dans le secteur financier , connectant les économies locales aux marchés mondiaux. Présent dans plusieurs pays d’Europe, il propose des services de négociation, compensation et cotation pour une large gamme de classes d’actifs : actions, dérivés, matières premières, etc. La donnée est au cœur de ses opérations et de sa stratégie d’innovation — elle permet des décisions plus intelligentes, des processus plus fluides et des solutions de pointe. Rejoignez l’équipe et contribuez à façonner l’avenir des marchés financiers grâce à une ingénierie data scalable et à fort impact. Vos missions En tant que Senior Data / AI Engineer (Dataiku) , vous serez amené(e) à : Collaborer avec les équipes métiers, opérations et IT pour recueillir les besoins et concevoir des solutions data sur mesure. Développer et optimiser des pipelines de données robustes, évolutifs et performants, soutenant des processus métier critiques. Co-créer des prototypes rapides avec les utilisateurs métier afin de valider des hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, en mettant l’accent sur la qualité des données, la maintenabilité et la performance. Soutenir la livraison continue et le déploiement en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Contribuer à l’évolution de la stack data et promouvoir les meilleures pratiques au sein de l’équipe.
Mission freelance
Consultant Marketing BI / Power BI / Salesforce H/F/NB
Un grand groupe leader dans le secteur de l'assurance recherche un consultant BI Senior pour renforcer son équipe Marketing sur des projets stratégiques d'automatisation et de performance analytique. Vous interviendrez dans un environnement international stimulant. 🚀 Vos missions : Automatiser les reportings marketing multi-stakeholders Fiabiliser et structurer les flux de données issus de Salesforce et autres sources externes Créer des tableaux de bord Power BI avancés avec Power Query et DAX Croiser et intégrer des données complexes pour des analyses marketing approfondies Optimiser la performance analytique de l'équipe Marketing

Offre d'emploi
Consultant Dev / Tests Techniques Angular & Python- Nantes (H/F)
🔍 Mission Vous interviendrez en tant que Consultant Développeur / Tests Techniques au sein d’une équipe dédiée à l’homologation technique des applications de banque à distance. Votre rôle sera partagé entre : Le développement de nouvelles fonctionnalités Front-Office / Back-Office d’un portail transverse. La réalisation de tests techniques (performance, charge, exploitabilité) sur des applications et infrastructures conteneurisées. 💡 Compétences requises Maîtrise confirmée en Angular (v19) et Python (3.12, Flask, API Rest) Expérience en Docker / OpenShift Connaissances en méthodologie de tests techniques / performance (TNR, HTTP) Atouts supplémentaires : CI/CD ( Jenkins, Bitbucket, XL-Deploy, XL-Release ), environnements Java JEE, connaissance du métier bancaire. 📊 Vos responsabilités Concevoir, développer et maintenir les fonctionnalités FO/BO du portail transverse Participer aux sprints Agile (Kanban/Scrum), contribuer à la documentation et relire les PR Préparer et exécuter des tests techniques (Néoload, serveurs distribués) Identifier les dysfonctionnements, analyser les résultats et proposer des améliorations Rédiger des rapports détaillés pour appuyer les décisions GO/NOGO en mise en production Contribuer à l’ industrialisation et à l’automatisation des tests 📅 Livrables attendus Fonctionnalités développées et validées (FO/BO) Documentation technique et rapports de tests Scénarios et plans de tests capitalisés pour les futures intégrations Dashboards et outils techniques pour améliorer la qualité et la performance Lieu : Saint-Herblain (Nantes) – 3 jours sur site

Offre d'emploi
Architect Data (H/F)
La mission consiste à assurer la responsabilité de l’architecture de bout en bout des solutions data et analytiques. L’architecte devra concevoir et piloter des solutions sécurisées, évolutives et optimisées en coûts, en s’appuyant sur la plateforme de données de l’entreprise (entrepôt de données, lakehouse, streaming, ML, environnements cloud et on-premise). L’objectif est de garantir la cohérence de l’architecture, la gouvernance des données et la performance des usages analytiques et métiers. Activités principales • Définir et maintenir l’architecture data couvrant ingestion batch/stream, entrepôt de données (modèles Kimball/Star), lakehouse (Iceberg/Trino) et exposition via SQL, API ou couche sémantique. • Concevoir les modèles conceptuels, logiques et physiques (partitionnement, clustering, indexation). • Encadrer la mise en place de la couche sémantique et des métriques, assurer la gouvernance des KPI, optimiser les performances des requêtes et tableaux de bord, favoriser l’auto-consommation via dbt/metrics layer et catalogues. • Mettre en place les pratiques d’observabilité, runbooks, SLOs, backfills, ainsi que l’optimisation coûts/performance (FinOps). • Définir les standards de gouvernance : métadonnées, documentation, data contracts, blueprints, architecture decision records (ADR). • Contribuer à la définition et à la priorisation des besoins métiers en lien avec les Product Owners, Delivery Leads et parties prenantes. • Fournir des rapports réguliers sur l’avancement, les jalons atteints et les difficultés rencontrées. Livrables attendus • Architecture one-pager, modèles sémantiques et KPI tree. • Data contracts, ADRs/HLD. • Runbooks, SLOs, modèles de coûts. • Documentation technique et fonctionnelle.

Offre d'emploi
Data Engineer (H/F)
CITECH recrute ! 👌 ✨ Vous souhaitez mettre vos talents au service d’un groupe de renom dans le secteur de la culture et du loisir ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Data Engineer (H/F) pour rejoindre une équipe dynamique et internationale. 👈 Au sein de notre DSI parisienne et rattaché à la responsable DATA & BI, vous serez en charge d’analyser, calculer et interpréter des données complexes afin de soutenir la prise de décision business et améliorer la qualité des données. 🙌🔽 Vos principales missions seront les suivantes : 🔽🙌 🔸 Mise en œuvre des flux de données de la data plateforme 🔸 Compréhension de l'expression de besoin 🔸 Architecture logicielle de la solution 🔸 Développements, tests et déploiements dans les divers environnements jusqu'en production

Offre d'emploi
Chef de projet data
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons pour notre client basé à Paris, un CHEF(FE) DE PROJET MAITRISE D'OUVRAGE – MOE - Confirmé (4-10 ans d’exp) azure - Confirmé - Impératif modelisation data - Confirmé - Impératif databricks - Junior - Important méthodo agile - Junior - Important - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Peut contribuer à l'Etude d'Opportunité (EO) pour le lancement d'un projet Est responsable de l'Etude de Faisabilité (EF) des projets qui lui sont confiés et prend en compte l'ensemble des éléments fonctionnels et techniques S'assure de l'adéquation des ressources avec les besoins du projet S'assure de l'application des directives définies en DAG (Dossier d'Architecture Général) pour structurer le projet et mobiliser les ressources nécessaires à sa bonne réalisation Contribue à la revue et à la négociation des contrats, en lien avec la Direction Juridique, les Achats Non Marchands et la Direction porteuse du projet Met en application les procédures internes ou externes Est responsable de la bonne mise en œuvre de la gouvernance du projet Pilote les actions nécessaires au respect du budget du projet Pilote et coordonne les partenaires et sous-traitants Gère et anime la communication auprès des équipes et des différentes instances Contribue à la préparation et mise en œuvre de la conduite du changement avec les métiers Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Offre d'emploi
Consultant Data (Luxembourg)
Le candidat doit avoir le profil suivant : · Bonnes connaissances des SGBD relationnels (DB2 zOS, Oracle, MS SQL Server) et du langage SQL · Très bonnes connaissances de SAP Power Designer · Connaissances de l’outil XDM (UBS Hainer) est un plus · Connaissance des normes de modélisation de données (base relationnelle) · Bonnes capacités analytiques et organisationnelles · La connaissance du domaine bancaire est un plus La mission du candidat débutera au plus tôt et consistera en : · Définition des standards et suivi de la qualité · Assurer le suivi qualitatif des évolutions des modèles de bases de données, leur documentation et leur maintenance (via SAP Power Designer). · Mettre en place des indicateurs et tableaux de bord pour le suivi de la qualité des modèles de données. · Accompagner les équipes dans la modélisation de leurs modèles afin de garantir le respect des règles de qualités et de normes internes mises en place · Gestion de la qualité et de la gouvernance · Veiller à l’application des normes et lignes directrices définies et la qualité technique · Assurer la mise en oeuvre technique de la rétention des données structurées conformément aux exigences réglementaires · Pilotage de projets et suivi des pratiques · Apporter un support aux projets liés à la gestion des données tel que le Data Lineage (BCBS 239), la Data Retention (GDPR) et la Data Classification · Maintenance et vérification des données · Cartographier les données de l’organisation · Documenter les métadonnées des données structurées et non structurées (rétention, classification, etc.).

Mission freelance
Ops Engineer – Réseau & Cloud (Infrastructure & Automatisation)
En tant que Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall) et cloud (Landing Zone). - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau et cloud. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau et au cloud. - Appliquer les mises à jour et les correctifs de sécurité. - Participer a l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau et cloud. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations). Compétences Techniques Requises Réseau : - Maîtrise des protocoles réseau (TCP/IP, BGP, OSPF, MPLS). - Expertise sur les équipements Cisco, ou équivalents (routing, switching). - Connaissance approfondie des firewalls (Palo Alto). Cloud : - Expérience significative sur au moins un fournisseur de cloud majeur (GCP, Azure). - Maîtrise des services réseau cloud (VNet/VPC, FW, Cloud NAT, routing). - Expérience avec l'Infrastructure as Code (Terraform). Software Engineering: - Experience en Software Engineering (Python)/API Monitoring : - Expérience avec des outils de monitoring (Datadog, Zabbix).

Offre d'emploi
Data Engineer Sénior
Au sein de la Direction Systèmes d’Information & Accélération Digitale et rattaché(e) au Directeur Service Data Intégration, nous cherchons un(e) Expert(e) solution Data afin de définir, développer, mettre en place, maintenir les outils et les projets Analytics. 1.1. CONTENU DE LA MISSION OU DES LIVRABLES Vous implémentez et industrialisez les pipeplines pour collecter, nettoyer, modéliser, cataloguer et restituer des données afin de les rendre accessible tout en veillant à leur qualité. Plus précisément, vous : 1. Concevez des solutions pour collecter, transformer et exploiter des gros volumes de données. 2. Participez à l’industrialisation des traitements et à leur amélioration continue, au monitoring pour qu’ils soient fiables, robustes et performants afin de répondre aux exigences métiers 3. Implémenter et opérer les projets Data et Analytics centraux sur une plateforme mutualisée (Data Platform) 4. D'assurer le run des projets Data & Analytics centraux en second niveau derrières les équipes en charge. 5. Vous assurez une veille technologique afin d’être à la pointe des connaissances en matière de data et de participer à la définition de la Roadmap technologique Data & Analytics. 1.2. SPECIFICITE DE LA MISSION Vous maîtrisez des langages de programmation (Python, Java, Shell), des solutions de bases de données type Snowflake, des ELT (Matillion, Azure Data Factory) ainsi que la solution Power BI. Vous êtes à l’aise dans les environnements Cloud (Azure, Google) et avec les outils d’intégration et de déploiement continue (Jenkins, git, gitlab, création de CI/CD, docker, Ansible, kubernetes…) Vous avez un très bon niveau d’anglais professionnel vous permettant d’interagir à l’oral, comme à l’écrit, dans un environnement international. Au-delà de vos compétences techniques, vous êtes reconnu(e) pour : - Capacité à analyser les exigences fonctionnelles et à les formaliser en solutions techniques - Votre esprit collaboratif et votre capacité à interagir avec les métiers - Votre rigueur, votre autonomie et votre sens de l’organisation vous permettant de gérer plusieurs projets en parallèle - Capacité à piloter et challenger des prestataires extérieurs - Aisance en matière de participation à des projets en milieu international : sens du contact, de la communication orale, sensibilité dans les relations personnelles et interculturelles La mission portera sur les outils suivants : • Tableau Software : Pour la visualisation et l'analyse de données. • Alteryx : Pour la préparation et l'automatisation des flux de données. • Snowflake : Pour la gestion des bases de données. • Matillion : Pour les processus ELT. • Azure Data Factory : Pour l'intégration et l'orchestration des données. • Airflow : Pour l'orchestration des workflows. • MS Fabric – Power BI : Pour la gestion des données et des analyses. • Denodo : Pour la virtualisation des données.

Mission freelance
Tech Lead Back-End Java / Kafka
Contexte Nous recherchons un Tech Lead Back-End pour accompagner une équipe Data dans le développement et l’évolution d’une plateforme interne de gestion de la qualité des données. Cette solution permet de définir, automatiser et monitorer des règles de Data Quality sur des datasets BigQuery, avec des notifications et des visualisations associées. Missions principales En tant que Tech Lead, vos responsabilités seront de : Concevoir et implémenter de nouvelles fonctionnalités autour des règles et métriques de qualité des données. Faire évoluer l’architecture modulaire du back-end (Java/Spring Boot). Améliorer la scalabilité et la fiabilité de la plateforme (Kafka, Kafka Streams, GCP). Réaliser des revues de code, assurer du mentorat et veiller à la qualité du code. Maintenir et monitorer l’application en production. Environnement technique Back-end : Java 21, Spring Boot 3, Kafka, Kafka Streams, Firestore, PostgreSQL Cloud : Google Cloud Platform (App Engine, GKE) CI/CD : GitHub Actions Front-end : Vue.js (Svelte apprécié)
Offre d'emploi
INGENIEUR DE PRODUCTION OPCON
Vos missions : Sur la partie « RUN » Gérer le cycle de vie complet de l'infrastructure liée aux applications. En assurant : Le support technique N3 sur les applications de la BI, pour diminuer backlog des incidents, Apporter un soutien aux études et infogérance pour les incidents majeurs S’interfacer avec les équipes DBA Connaissance en language de BDD( SQL) Administrer l’ordonnanceur OpCoN et automatiser les traitements Supervision et monitoring Rédaction de scriptshell et .bat Intégrer les nouvelles applications, traiter, mettre à jour et contrôler l’exploitabilité sur la production Définir les stratégies de sécurité pour les utilisateurs et groupes AD. Gérer les droits d'accès à l’Active Directory : Créer user, groupe d'accès Gérer les serveurs (physiques et virtuels) Windows Conduire les tests de PRI avec le SME (inde) Participer à l’intégration sur les envi hors prod et mettre en Œuvre dans les environnements de production, les traitements techniques et fonctionnels. Accompagner les chefs projets Technique en tant que spécialiste de la production Intégration et déploiement de projets Industrialiser Piloter l’externalisation partielle des activités de production Transformation : Accompagner le “move to run “ Vérifier et mettre à jour tous les documents Ø Force de proposition d’amélioration Environnement : OS : VCenter. Windows server, 2008, 2012, 2016, 2019. Windows 7/10. Red Hat 6, 7, Ordonnanceur : OpCON 19, 20 . DB : Microsoft SQL server management, SQL Server. IBM Cognos, Datamanager. Cloud Snowflake, AWS. Reporting Splunk, Dynatrace, Turbonomic, SSMS. Supervision : Service NAV supervision Profils : Maitrisé : OS : Windows 2008->2019, Red Hat 6/7 Ordonnanceur : OpCON 19,20 / Control M Db : Microsoft SQL server management, SQL Server. IBM Cognos, SSMS Supervision : Service NAV supervision Langue : Anglais fluent (écrit et oral) Process : ITIL Autres competences ++: Power BI, Gammasoft, Datamanager. Cloud Snowflake, AWS. Reporting Splunk, Dynatrace, Turbonomic, SSMS,TMOne

Offre d'emploi
INGENIEUR DATA NATIONALITE FRANCAISE
Ingénieur·e Data En tant qu’Ingénieur·e Data, vous participerez aux différentes phases des projets de transformation digitale de client. Vous serez responsable du développement et de la mise en œuvre de solutions de données et de reporting, en collaboration avec l’équipe DevOps, afin d’aider les utilisateurs finaux à analyser efficacement leur activité à travers des rapports et des tableaux de bord. Vous utiliserez différentes technologies Microsoft telles que : SQL Server Integration Services, Azure Analysis Services, Azure Data Lake, Azure SQL Database, Azure Data Factory et Power BI. Responsabilités principales : Construire des Data Warehouses, Data Marts et Data Cubes. Solide compréhension des concepts de Data Warehousing et de modélisation de données. Identifier, concevoir et mettre en œuvre des améliorations internes : refonte d’infrastructures pour une meilleure évolutivité, optimisation des flux de données et automatisation des processus manuels. Développer des jobs ETL réutilisables et des cas d’usage. Développer, déployer et mettre en service des interfaces Azure Data Factory. Assembler de larges ensembles de données répondant aux exigences fonctionnelles et non fonctionnelles. Gérer les mécanismes d’alimentation ETL (chargement Delta/Complet, historique). Maintenir les ETL en condition opérationnelle. Construire des outils analytiques exploitant les pipelines de données pour fournir des insights exploitables sur les indicateurs de performance clés. Maîtrise de SQL, DAX, MDX et optimisation des requêtes. Excellente maîtrise de T-SQL, tuning des performances et gestion de bases de données. Gestion de la sécurité au niveau des lignes sur chaque couche de la chaîne de données. Compétence en débogage, supervision, tuning et dépannage de solutions BI. Familiarité avec les pipelines CI/CD entièrement automatisés pour le déploiement, l’intégration, les tests et la qualité du code. Expérience de l’utilisation de GIT pour le contrôle de source dans Azure DevOps. Capacité à gérer plusieurs interfaces et à travailler dans un contexte international. Connaissance des design patterns de produits Data. Collaboration avec les parties prenantes (équipes Data, Design, Produit, Direction) pour résoudre les problématiques techniques liées aux données. Support à la qualification des projets, extraction, transformation et chargement des données (Data Scoping / Discovery). Compétences techniques : Outils : Azure Data Factory, ADLS Gen2, Azure SQL DB, Analysis Services, GitLab, Azure DevOps, Visual Studio, SQL Server Management Studio, DAX Studio, Tabular Editor, Power BI. Expertise : Modélisation de données, Data Warehousing, gestion de bases de données, ETL, visualisation de données, méthodologie Agile, notions de CI/CD. Formation : Master en informatique, statistiques ou mathématiques. Compétences comportementales : Maîtrise de l’anglais (oral et écrit). Excellentes compétences en communication et présentation. Esprit d’équipe et sens de la coopération.

Offre d'emploi
Consultant Neoxam DATA HUB - Asset Management - BRUXELLES
Objet mission : Référent Technique DataHub au sein de l’équipe Data Management Objectifs : Participation à tous les projets liés à DataHub Supervision : garantir que la plateforme DataHub et son écosystème sont up & running tout au long de la journée et permet d’assurer l’activité Gestion des incidents Maintenance corrective et évolutive En tant qu'expert de l'outil, vous serez le référent technique de l'outil. Vous serez le garant du bon fonctionnement et de l'optimisation de l’utilisation de l’outil

Offre d'emploi
Data Analyst Senior
Description du poste Nous recherchons un Data Analyst expérimenté. La mission consiste à migrer des programmes SAS existants vers SharePoint et automatiser la production des reportings réglementaires. La personne interviendra au sein de la direction interne en charge de la conformité et du contrôle des données. Objectifs et responsabilités Objectifs principaux Réaliser la cartographie des traitements récurrents et les prioriser pour la migration des programmes SAS vers SharePoint. Vérifier la présence des données dans les nouveaux environnements ou assurer leur migration si nécessaire. Mettre en place un suivi des avancées, incluant le reste à faire et les échéances. Migrer les programmes SAS vers SharePoint (adapter codes et architecture, tester la non-régression). Produire les chiffres pour les reportings réglementaires de fin d’année. Automatiser la production des reportings.
Offre d'emploi
Data Engineer Look ML
En tant que BI engineer Looker/LookML, vous serez en charge de concevoir, développer et d'optimiser des solutions de reporting adaptées aux besoins de nos différents métiers. Votre expertise avancée en LookML/Looker, vos connaissances et compétences sur d'autres outils de visualisation telles que MicroStrategy et/ou QlikView, combinée à une solide maîtrise de SQL, sera un atout essentiel pour réussir dans ce rôle. Ø Missions principales : · Concevoir, développer et maintenir les modèles de données et couche sémantique dans LookML. · Concevoir et développer des tableaux de bord et rapports à l'aide des outils Looker, MicroStrategy et QlikView. · Intégrer différentes sources de données. · Collaborer avec les équipes métiers pour comprendre leurs besoins et les traduire en solutions de reporting performantes. · Assurer la maintenance, la résilience et l'évolution des solutions existantes. · Effectuer les recettes techniques et fonctionnelles des traitements développés. · Mettre en place des mécanismes de monitoring pour assurer le bon fonctionnement et la fiabilité des solutions. · Participer à l'optimisation des modèles de données et à la création d'infrastructures de reporting. · Garantir la qualité, la fiabilité et la précision des données présentées. · Rédiger les livrables et la documentation technique associée pour faciliter la pérennité et la transmission des connaissances. · Participer à la gouvernance des couches sémantiques et des reportings. · Former les utilisateurs finaux et leur fournir un support technique lorsque nécessaire.

Offre d'emploi
DATA ANALYST H/F
Au sein d’une équipe, vous intervenez dans la mise en place d'outils de reporting pour les équipes travaux et les diverses entités opérationnelles. Dans ce cadre vos missions sont les suivants : Maintenir les outils de pilotage déjà en place : mises à jour, correctifs, évolutions Recueillir les expressions de besoin des différents responsables de programmes, Développer de nouveaux outils de pilotage, de type rapports Power BI et cartographies des programmes, et les mettre à la disposition de vos utilisateurs, dans une recherche d'optimisation de leur satisfaction, Effectuer des analyses pour contribuer à l'amélioration de la performance du Domaine Opérations via le croisement de données métier Environnement technique :PowerBi, Power Apps, SQL, SharePoint
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.