Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 814 résultats.
CDI

Offre d'emploi
INGÉNIEUR DEVOPS (H/F)

UMANTIC
Publiée le

50k-60k €
Pessac, Nouvelle-Aquitaine
FICHE DE POSTE — INGÉNIEUR DEVOPS (H/F) Démarrage : ASAP, Localisation : Pessac — 5 à 8 ans d'expérience * * * CONTEXTE Dans le cadre du renforcement de ses équipes, notre client recherche un Ingénieur DevOps expérimenté pour intervenir sur la mise en place, l'administration et l'évolution de son infrastructure cloud et de ses environnements Kubernetes. * * * MISSIONS PRINCIPALES * Mise en place, configuration et administration de clusters Kubernetes * Automatisation de l'infrastructure avec Terraform et Ansible * Intégration et gestion de pipelines CI/CD via GitLab CI * Surveillance et observabilité des environnements (Prometheus, Grafana, Loki) * Gestion de la sécurité et des accès (Vault, Keycloak, EDR, Bastion, PRA/PCA) * Administration des environnements cloud GCP, gestion des ressources et de la configuration * Scripting et administration système (Ubuntu, Unix, Shell) * Maintenance et évolution de l'architecture logicielle (microservices, API REST) * Configuration réseau et protocoles selon les besoins applicatifs * * * COMPÉTENCES REQUISES Indispensables * Kubernetes (administration, configuration, déploiement) * Terraform & Ansible (IaC) * GitLab CI (conception et gestion de pipelines) * Prometheus, Grafana, Loki (observabilité) * HashiCorp Vault, Keycloak (gestion des secrets et des accès) * Google Cloud Platform — GCP (administration cloud) * Linux / Ubuntu / Shell (administration système) Appréciées * Certification CKA (Certified Kubernetes Administrator) * Expérience PRA/PCA * Connaissance des architectures microservices et API REST * Maîtrise des environnements EDR / Bastion
Freelance

Mission freelance
FREELANCE – Lead Analytics (H/F)

Jane Hope
Publiée le
Azure Data Factory
Azure Synapse
DAX

6 mois
450-550 €
Lille, Hauts-de-France
Notre client, basé à Lille (59), est à la recherche d’un Lead Analytics (H/F) freelance pour être le référent technique et le manager de proximité de la verticale Analytics au sein du département IA & Data. MISSIONS Vous vous placez au cœur de la chaine de valeur analytique : vous produisez, structurez, accompagnez la montée en compétences des équipes et de la plateforme data. Objectifs court terme : · Prendre en main l'équipe et établir une relation de confiance avec les Data Analysts dans les 3 zones géographiques · Auditer l'état du portefeuille analytique existant (rapports, dashboards, modèles de données) et comprendre les priorités · Livrer des cas d'usage analytiques à fort impact pour démontrer la valeur de la verticale. Objectifs long terme : · Contribuer à la feuille de route analytique alignée sur les priorités business et la stratégie Data & AI · Faire monter en maturité l'équipe sur les pratiques avancées d'analyse et l'usage de Microsoft Fabric / Power BI · Développer un modèle de self-service analytics fiable, gouverné et scalable pour les métiers · Établir un cadre de mesure de la valeur créée par la verticale (adoption, qualité, impact business) Responsabilités techniques : · Concevoir, développer et maintenir des modèles sémantiques et dashboards Power BI complexes · Produire des analyses et des requêtes avancées pour répondre aux questions business stratégiques · Assurer la qualité et la cohérence des données analytiques exposées aux métiers · Documenter les logiques de calcul, les sources et les définitions de métriques · Réaliser des revues de code et du pair-programming avec les Data Analysts de l'équipe Responsabilité managériale : · Animer l'équipe d’environ 7 Data Analysts répartis en Europe, Amérique du Nord et Russie · Conduire les entretiens individuels, fixer les objectifs et accompagner le développement professionnel · Piloter le cycle d'évaluation annuelle de l'équipe (performance, développement, plan de progression) · Assurer la montée en compétence des équipes sur les outils et pratiques analytiques (Microsoft Fabric, Power BI, DAX) · Gérer le budget de la verticale Analytics et en assurer le suivi · Gérer la relation avec les fournisseurs et partenaires externes liés aux outils et services analytiques · Représenter la verticale Analytics dans les instances de gouvernance du département AI & Data · Coordonner avec les autres verticales (Data Platform, Data Delivery, Data Governance) pour fluidifier les livraisons ENVIRONNEMENT TECHNIQUE · Microsoft Fabric : PowerBI, Lakehouse, Onelake · DAX, Power Query · SQL · Azure Data : Azure Data Lake, Synapse
Freelance
CDI

Offre d'emploi
Analytics Engineer

KLETA
Publiée le
DBT
Snowflake

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Analytics Engineer pour structurer, industrialiser et fiabiliser les couches analytiques d’un socle data moderne basé sur Snowflake. Vous analyserez les besoins métiers et techniques, proposerez des trajectoires d’évolution des modèles de données (médaillon, modularisation, refactoring des transformations) et guiderez leur mise en œuvre avec dbt et Snowflake. Vous serez responsable de la conception des modèles analytiques, de leur performance, de leur maintenabilité et de leur qualité, en intégrant des tests automatisés, de la documentation et des bonnes pratiques de gouvernance des données. Vous travaillerez main dans la main avec les équipes Data Engineering, BI et métiers pour garantir une cohérence entre ingestion, transformation et consommation des données. Vous participerez à l’optimisation des requêtes, à la structuration des vues métiers et à la mise en place de mécanismes de traçabilité et de versioning des modèles. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes sur les meilleures pratiques de modélisation analytics et d’usage avancé de Snowflake et dbt.
Freelance

Mission freelance
SAP MASTER DATA

KUBE Partners S.L. / Pixie Services
Publiée le
SAP

6 mois
Paris, France
Je cherche activement un consultant SAP Master Data,côté production, dans le cadre de la construction d'un core modele. Pour la phase de cadrage, design et conception : démarrage ASAP Tâches Base article et non article Fiche info achats Fiche info fournisseurs Nomenclature production Gamme de production Costing Migration avec interfaces PLM vers SAP basées sur des Idocs et LSMW Lien avec metier Leadership Compétences requises : Master Data SAP (min 5 ans exp) Expérience conception générale indispensable, paramétrage, custo Orienté best practice Langues : français et anglais mandatory
Freelance

Mission freelance
Data Analyst Confirmé H/F

AGH CONSULTING
Publiée le
Data visualisation
Hadoop
MySQL

6 mois
200-400 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un Data Analyst Confirmé afin d'accompagner la mise en oeuvre de cas d'usage métiers à forte valeur ajoutée, dans un environnement Big Data. A ce titre, vos missions principales seront les suivantes : -Identifier, concevoir et implémenter des cas d'usage métiers basés sur le croisement et l'analyse de données (ciblage, analyses exploratoires, datascience). -Développer et maintenir des produits DATA réutilisables (pipelines, scripts, datasets). -Exploiter les données via des traitements distribués sous environnement Hadoop. -Concevoir et publier des reportings et dashboards Power BI (datasets, dataflows, rapports). -Produire des présentations synthétiques (PPT) des résultats d'analyses. -Garantir le respect des standards, bonnes pratiques et normes DATA. -Accompagner les équipes métiers dans l'exploitation et l'acculturation à la donnée. Livrables attendus : -Programmes DATA industrialisés sous plateforme Big Data -Jeux de données et dataflows Power BI -Tableaux de bord et rapports de datavisualisation -Supports de restitution et présentations des études réalisées Environnement technique : -Plateforme : Hadoop (Cloudera) -Langages : Python, PySpark, SQL -Outils de restitution : Power BI
Freelance
CDI

Offre d'emploi
Consultant IA / DATA

Tritux France
Publiée le
Data analysis
Data science
IA Générative

3 ans
Île-de-France, France
Apporter une expertise technique et produire des livrables sur les deux initiatives Low Code - No Code et Data Access ; API du plan stratégique de l'IT CIB. Expertise techniques data, API, Low Code - No Code, Citizen dev. Project management. Stratégie IT, Change et Transformation Contexte Vous rejoignez l’équipe Data & Innovation au sein de l’IT Transversale de Corporate ; Investment Banking. Nous travaillons à la réalisation de projets de data sciences (Data Analytics ; Visualization, Generative AI et Machine Learning) pour les métiers bancaires de la CIB afin d’explorer au maximum les opportunités business. Si vous êtes passionné par la Data Science et l'innovation technologique, vous serez heureux de rejoindre un environnement dynamique, exigeant et bienveillant au plus près du métier de la CIB.
Freelance

Mission freelance
Service Delivery Manager – Plateforme DATA / IA

KatchMe Consulting
Publiée le
SLA

6 mois
500-600 €
Issy-les-Moulineaux, Île-de-France
Le Service Delivery Manager intervient au sein d’une direction informatique en charge des infrastructures, de la production et de la supervision des systèmes d’information. Dans un contexte de transformation numérique et d’intégration d’équipes techniques issues de différentes entités, le poste vise à garantir la qualité, la continuité et la performance des services IT fournis aux métiers. Le Service Delivery Manager joue un rôle central dans la coordination entre les équipes métiers, les équipes techniques et la gouvernance des projets. Il veille à l’alignement des services informatiques avec les besoins opérationnels et s’assure du respect des engagements de service. Dans ce cadre, ses principales responsabilités sont : Garantir le respect des engagements opérationnels (OLA) et veiller au respect des engagements de service (SLA) . Participer à la gestion des incidents majeurs et des crises informatiques . Organiser et piloter les retours d’expérience (REX) suite aux incidents majeurs et assurer le suivi des plans d’actions. Assurer la gestion des problèmes selon les bonnes pratiques ITIL , afin d’identifier les causes racines et réduire la récurrence des incidents. Assurer le suivi des indicateurs de performance et produire les reportings associés. Représenter l’équipe dans les instances de pilotage de la qualité de service lorsque nécessaire. Contribuer au maintien en conditions opérationnelles du système d’information . Participer à la validation et à l’évolution du catalogue de services . Être responsable de la documentation opérationnelle relative à la gestion des incidents. Contribuer à l’ amélioration continue des processus RUN , notamment sur les processus de gestion des incidents, des problèmes et des demandes. Dans son rôle opérationnel, le Service Delivery Manager contribue également à : Définir et formaliser la convention de services de la plateforme. Garantir la qualité et la disponibilité des services IT . Maintenir un haut niveau de satisfaction des utilisateurs et des métiers . Optimiser l’utilisation des ressources techniques et organisationnelles . Favoriser une démarche d’amélioration continue basée sur les retours d’expérience et les indicateurs de performance.
Freelance

Mission freelance
Ingenieur Data RH

Comet
Publiée le
Azure Data Factory
BI
Databricks

12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Freelance

Mission freelance
Expert Kubernetes H/F

TIBCO
Publiée le
Kubernetes

1 mois
Chartres, Centre-Val de Loire
Vos attentes * Rejoindre une entreprise à impact pour créer un meilleur demain en prenant soin de l'économie, de l'humain et de la planète ? * Entrer dans une société française qui maitrise son destin * Intégrer une équipe à taille humaine ? * Vous aimez l’autonomie, la création, la prise d’initiative, l’esprit d’équipe ? Mission Dans le cadre du renforcement de ses équipes techniques, notre client, acteur dans le domaine des assurances, recherche un Expert Kubernetes pour intégrer l’équipe DOSIT Unix Middleware et SGBD. Au sein de l’équipe, vous serez en charge de : * Explorer les composants Kubernetes ainsi que les évolutions d’architecture, et formuler des préconisations d’implémentation * Contribuer à l’évolution de la plateforme Kubernetes On-Premise et sur Google Cloud Platform (GCP) * Participer activement aux projets fonctionnels et techniques * Accompagner les équipes dans les choix d’architecture et les bonnes pratiques ### Livrables attendus * Documentation détaillée de l’hybridation des clusters Kubernetes (On-Premise / Cloud)
Freelance

Mission freelance
Data Engineer Confirmé – Environnement industriel (H/F)

Pickmeup
Publiée le
Dataiku
Numpy
Pandas

2 ans
350-370 €
Saint-Paul-Trois-Châteaux, Auvergne-Rhône-Alpes
Missions principalesConception et architecture des solutions data Concevoir et développer des pipelines de données robustes pour des environnements industriels. Cartographier et documenter les sources de données . Concevoir des solutions permettant le traitement de volumes importants de données . Définir la structure des bases de données et des métadonnées . Participer à la mise en place et à l’évolution d’un Data Lake . Intégration et gestion des données Collecter et intégrer des données provenant de sources multiples (applications, capteurs industriels, systèmes externes) . Garantir la qualité, la sécurité et la fiabilité des données . Mettre en place des mécanismes de contrôle, nettoyage et validation des données . Assurer la supervision et la maintenance des pipelines de données en production. Collaboration et animation Collaborer avec les équipes métier et IT afin de comprendre les besoins en données. Participer à l’animation de la communauté technique autour des sujets data . Contribuer à la veille technologique sur les solutions data et proposer des améliorations. Livrables attendus Dossier de spécification et d’architecture des solutions data mises en œuvre. Catalogues et cartographie des données . Mise en place d’un Data Lake adapté aux besoins métier . Documentation et outils permettant de garantir la qualité des données .
CDD
CDI
Freelance

Offre d'emploi
DATA ANALYSTE DATASCIENCE SENIOR

KEONI CONSULTING
Publiée le
Data analysis
Python
SQL

18 mois
40k-45k €
400-550 €
Gradignan, Nouvelle-Aquitaine
CONTEXTE Nous recherchons pour notre client un profil analyste DATA afin d'intégrer l'équipe Analyse de la Donnée. Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ . Fort d'une expérience DATA, le prestataire devra également montrer une appétance particulière dans le domaine fonctionnel MISSIONS - Mise en oeuvre de cas d'usage métiers par croisement de la donnée ( ciblage , analyse de donnée ou datascience ) - Développement et maintenance de produits DATA réutilisables - Publication des résultats d'analyse avec de la DATAVIZ - Respect des normes et bonnes pratiques au sein de l'équipe - Accompagnement et acculturation des équipes métiers ou autres" Définition des prestations attendues : Prestation d'analyse DATA et DATASCIENCE Préciser la technologie ou les certifications attendues : Python, Pyspark,SQL,Dataviz, Datascience " Livrables attendus "Programme DATA sous plateforme DATA Dataviz Présentation PPT de resultats d'etude Environnement technique - technologique "Plateforme : BIG DATA Hadoop (CLOUDERA) Langages : Python, PySPARK, SQL Restitution : PowerBI (dataset, dataflow, rapports) Compétences techniques attendues Connaissances en environnement BIG DATA ( python , Pyspark) Requêtage SQL Exposition des données par DATAVIZ Experience en analyse DATA et projet de DATAscience
Freelance

Mission freelance
Data Scientist Senior

NEOLYNK
Publiée le
Python
SQL

3 mois
400-500 €
Lille, Hauts-de-France
Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques.
Freelance

Mission freelance
247811/Incident Manager Data Niort - Dynatrace, Confluence, ITIL

WorldWide People
Publiée le
ITIL

6 mois
350 €
Niort, Nouvelle-Aquitaine
Incident Manager Data Niort - Dynatrace, Confluence, ITIL Contexte de la mission Le Data Office de mon client définit les orientations stratégiques dans le domaine de la donnée et assure l'homogénéité et la performance de l'écosystème Data. L'équipe Exploitation des Services de Services Delivery Data pilote, assure et améliore au quotidien la disponibilité des services informatiques. Des compétences d'autonomie, de force de proposition tout en ayant une bonne connaissance des environnements de production sont indispensables. Le candidat doit avoir une posture d'amélioration continue. Objectifs et livrables Le poste d'Incident Manager a pour objectif de piloter le processus de gestion des incidents sur le périmètre Data, conformément aux bonnes pratiques ITIL. Il veille à la restauration rapide du service lors d’incidents, à la résolution durable des causes racines, et à la satisfaction du client. Objectifs et livrables Son rôle s’inscrit pleinement dans une démarche d’amélioration continue et de pilotage de la qualité de service. Les missions principales consistent à : ● Piloter le traitement des incidents selon ITIL. ● Coordonner les équipes techniques et suivre les escalades. ● Gérer les incidents majeurs (crise, communication, RCA). ● Assurer la production, l’analyse et la présentation des reportings opérationnels et de gouvernance. ● Participer aux comités techniques et opérationnels. ● Contribuer à l’amélioration continue des processus et de la performance du service. Compétences Requises Un minimum d’expérience est demandé (x<3 ans) avec des compétences avérées. Savoir-Être (Soft Skills) ● Connaissance du référentiel ITIL v4 (certification souhaitée). ● Expérience en pilotage d’incidents. ● Maîtrise de l’outil ITSM (Easyvista). ● Maîtrise du reporting (Google WorkSpace). ● Capacité d’analyse, esprit de synthèse et orientation résultats. ● Excellentes aptitudes en communication et en relation client. ● Rigueur, diplomatie, réactivité et sens du service. ● Activité réalisée partiellement sur site et télétravail. Compétences Techniques (Hard Skills) Le niveau d'expertise souhaité est détaillé ci-dessous : Compétence Niveau Souhaité Ordonnanceur (Control M) Élémentaire (*) Monitoring (Dynatrace) Élémentaire (*) Easyvista ITSM Avancé (**) Jira, Confluence, Google Workspace Élémentaire (*) Certification ITIL Avancé (**) Légende : Élémentaire (*), Avancé (**), Confirmé (***), Expert (****) Compétences demandées Compétences Niveau de compétence CONFLUENCE Expert DYNATRACE Expert ITIL Expert
Freelance

Mission freelance
DevOps AI Construire des application

Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services

12 mois
Nanterre, Île-de-France
Localisation :92 Démarrage : Mars Jours obligatoires sur site : 1 jours/semaine Expérience : Confirmé TJM: Selon profil Contrainte forte du projet: Agile, GenAI, RGPD, AI Act Les livrables sont: -Composants applicatifs et intégrations -Pipelines d'automatisation et de déploiement -Assurance qualité et documentationDescription détaillée **VOTRE MISSION** * Implémenter et maintenir les composants applicatifs nécessaires aux solutions GenAI : APIs, services backend, interfaces frontend et connecteurs vers les briques IA (agents, RAG, vector DB). * Travailler en binôme avec l’AI Engineer pour intégrer proprement les modèles et pipelines GenAI dans des architectures robustes et industrialisées. * Concevoir des APIs sécurisées et scalables (REST/GraphQL) et assurer l’intégration avec OneAPI, Azure services et les API internes. * Développer en Python et en JavaScript selon les besoins du projet ; produire du code propre, testé et documenté. * Participer à l’industrialisation : conteneurisation (Docker), orchestration sur AKS, déploiement via CI/CD (Azure DevOps / GitHub Actions), IaC (Terraform). * Mettre en place l’observabilité et l’alerte (logs, métriques, traces) pour assurer la fiabilité et suivre les coûts en production. * Assurer la qualité logicielle : tests unitaires/intégration, revue de code, performance et sécurité applicative (RBAC, chiffrement, bonnes pratiques secure-by-design). * Contribuer à la création de briques réutilisables, templates et patterns pour accélérer les futures squads (boilerplates, SDKs, connecteurs). * Collaborer avec le PO, l’AI Engineer, la DSI, la cybersécurité et les équipes opérationnelles pour garantir l’exploitabilité et l’adoption. Il /elle développe et exploite les produits / plateformes Cloud dans le respect du cadre technique/technologique instauré. Activités et tâches - Développe les nouveaux produits, réalise les tests unitaires et rédige la documentation technique - S'inscrit dans la chaine CI/CD - S'intègre dans les pratiques de développement instaurées (revue de code, tests de vulnérabilité, qualité de code) - Identifie les optimisations à réaliser sur les techniques d'automatisation et de déploiement - Sécurise la production readiness des produits (tests d'intégration, scripts d'exploitation, automatisation des actions de support, documentation technique) - Assure l'exploitation des produits / plateformes Cloud et répond aux incidents d'exploitation associés (selon les niveaux de services définis) - Contribue à l'amélioration continue des produits / plateformes Cloud - Apporte une expertise technique aux utilisateurs / clients / consommateurs sur son périmètre de produits/plateformes Cloud - Anime ou participe à la communauté Cloud DevOps
Freelance

Mission freelance
UI/UX Data Designer (H/F) - IDF + Remote

Mindquest
Publiée le
CRM
Figma
Microsoft Power BI

3 mois
Val-de-Marne, France
Contexte Mon client recherche dans la continuité du développement de l'écosystème Digital, un UI//UX Data Designer, ils poursuivont la construction du pilier décisionnel : DataHub Mission Le chantier Cockpit a pour objectif de construire des outils de pilotage afin d'assister dans la prise de décision. Dans ce chantier, le Design System DataViz a été construit avec l'objectif de rendre les informations complexes accessibles et exploitables grâce à une visualisation claire et intuitive. La construction du Design System DataViz est au coeur de la construction des outils de pilotage (chantier Cockpit). Il s'agit de construire un langage commun pour l’ensemble des métiers en standardisant les éléments design et les composants visuels Power BI. Contenu détaillé de la prestation : Vous allez travailler étroitement avec le directeur de projets Design System DataViz, les équipes Data et les métiers. Le but de la prestation consiste à l'accompagnement UX/UI design dans la production DIRECTION DES SYSTEMES D'INFORMATION Le but de la prestation consiste à l'accompagnement UX/UI design dans la production et livraison d'éléments design et graphiques, de composants Power BI dessinés dans le cadre du design system DataViz, de maquettes Power BI. Comprendre les besoins et les enjeux à piloter ? Comprendre les connaissances nécessaires pour le pilotage et la décision Traduire les besoins/enjeux en conception et en design en s'appuyant sur le design system actuel Par exemple : o Mettre en place les scénarisations des KPI o Mettre en place la hiérarchisation visuelle par typographie et graphique o Mettre en place les filtres interactifs… Concevoir / produire les éléments de design pour répondre au besoin conception Produire / enrichir / standardiser le design system - les éléments design pour conception (ex: palette de couleurs contrastées, encadrés et pictogrammes, graphiques enrichis et dessinés…) Produire / faire évoluer / enrichir / standardiser le design system es composants Power BI pour Dashboard Maintenir / faire évoluer / produire la bibliothèque design system conception (éléments design) Maintenir / faire évoluer / produire la bibliothèque design system Power BI (composants PBI dessinés) Produire les maquettes Power BI Conception / réalisation des outils de pilotage pour les différents enjeux / métiers Réalisation des éléments design Réalisation des éléments Power BI dessinés Réalisation des maquettes / reportings PBI dynamiques Enrichissement et gestion de nos dictionnaires design system Rédaction des cahiers des charges, spécifications fonctionnelles et techniques nécessaires Garant de la qualité de réalisation Le(la) consultant(e) va travailler sur les environnements (Figam, PowerBI, Azure, Databricks, SQL, …) co-managé par les équipes Data Factory ainsi que les équipes DCLD (direction client digital). Modalité de la Prestation Livrables Design system – éléments de conception UIUX Design system – composants Power BI dessiné Reportings/Maquettes Power BI dynamique Cahiers des charges / CR / Dictionnaires Présentation / Documentation Technique Figma Power BI / DAX Cloud Azure Databricks SQL Python, Spark, Scala Spyder…
Freelance

Mission freelance
Analytic Engineer / Expert Qlik Finance & HR

VISEO
Publiée le
DBT
Qlik
Snowflake

12 mois
400-620 €
92100, Boulogne-Billancourt, Île-de-France
Qui êtes-vous ? Si pour vous être Analytic Engineer / Expert Qlik Finance & HR , c’est : 🔹 Construire des applications Qlik robustes, performantes et pensées pour des enjeux métier critiques ; 🔹 Manipuler avec précision des analyses financières avancées : YTD, MTD, rolling forecast, variance vs budget/forecast ; 🔹 Garantir la qualité, la fiabilité et la cohérence des KPI dans un environnement où la donnée est sensible et réglementée ; 🔹 Concevoir des modèles analytiques via SQL et dbt , en appliquant de vraies bonnes pratiques d’ingénierie ; 🔹 Travailler en CI/CD, versionner proprement votre code, challenger les approches et améliorer en continu ; 🔹 Jouer un rôle de référent BI , diffuser les standards de développement, optimiser les performances et accompagner les équipes… …Alors vous êtes exactement la personne que nous recherchons ! Si vous avez une expérience significative en BI/Qlik dans un contexte exigeant, que vous aimez autant faire que faire faire , et que vous souhaitez participer à une transformation data ambitieuse, alors vous êtes prêt(e) à rejoindre l’aventure. Quelle sera votre mission ? Vous allez contribuer directement à la construction d’un data mesh Finance & HR à fort impact stratégique, au sein d’une modern data stack pleinement en transformation. Vous allez pouvoir : 🔹 Développer, optimiser et industrialiser des cockpits Qlik utilisés au niveau mondial ; 🔹 Mettre en œuvre une sécurité de haut niveau , garantir la confidentialité et participer aux audits ; 🔹 Contribuer à la création de consumer data products : modélisation SQL, transformations, tests automatisés, documentation ; 🔹 Participer à la modernisation des pratiques BI : versioning GitLab, revues de code, guidelines, performance, réutilisabilité ; 🔹 Apporter votre leadership technique pour faire évoluer les standards, structurer la gouvernance des KPI, améliorer la robustesse des modèles ; 🔹 Collaborer avec une équipe engagée et transverse (Finance, RH, Data Product Owners, ingénieurs Data) pour délivrer des solutions fiables et utiles. En somme : il s'agira de construire ensemble une BI moderne, scalable, sécurisée, pensée pour durer et qui soutient directement les décisions stratégiques de la Finance et des RH.
2814 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous