Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 9 329 résultats.
Mission freelance
Technicien exploitation/production (Toulouse)
Publiée le
Production
12 mois
140-200 €
Toulouse, Occitanie
Télétravail partiel
Au sein du pôle MCO, nous recherchons une prestation en exploitation technique pour gérer et exploiter les environnements de production liés à l'application. Liste de tâches : • Faire les opérations quotidiennes nécessaires au bon fonctionnement de la production : • Regarder l'état de la production (via des outils de supervision) : performances serveurs, indisponibilités sites internet… • Analyser les anomalies détectées et des changements de comportement (splunk) • Mettre en place les actions correctives • Repérer et analyser les incidents cybersécurité • Participer à la vie du drive, d'un point de vue logiciel : sa création et ses modifications. • Intervenir en Datacenter pour installation/dépannage de matériel • Déployer les versions et les évolutions de l'application Environnement technique : Windows Server 2019/2022, virtualisation (Nutanix, VMware), WAF, SQL Server, Splunk
Offre d'emploi
Développeur sénior Java Spring Boot VueJS
Publiée le
Java
Vue.js
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Le/la candidat(e) interviendra dans un environnement dynamique, collaboratif et orienté produit, contribuant à la conception et à la mise en œuvre de nouvelles fonctionnalités pour l’application ACDC. Missions principales Le profil retenu sera amené à : - Travailler au sein d’une équipe SCRUM en étroite collaboration avec les PO, le Tech Lead et les autres développeurs. - Concevoir, développer et tester de nouvelles fonctionnalités et interfaces utilisateurs. - Faire évoluer et maintenir les systèmes existants. - Respecter et promouvoir les bonnes pratiques de développement (W3C, Clean Code, sécurité, performance). - Participer aux revues de code, à la documentation technique et aux rituels agiles. - Être force de proposition pour améliorer les performances et l’expérience utilisateur. - Démontrer une forte capacité d’adaptation sur des sujets techniques variés. - Favoriser la communication, le partage de connaissances et l’esprit d’équipe.
Offre d'emploi
Architecte IAM / Ingénieur Cybersécurité IAM
Publiée le
IAM
sailpoint
1 an
40k-45k €
400-600 €
Île-de-France, France
Télétravail partiel
Cybersécurité Gouvernance / IAMContexte Une institution majeure du secteur bancaire européen doit protéger ses actifs des cyber-attaques et se conformer à des règles fortes provenant des régulateurs et de ses clients. Description du Poste La mission s'inscrit au sein des équipes IT Security Access Management, en charge de l'architecture et de l'ingénierie des services IAM. Cette équipe est spécialisée dans la fourniture de services de sécurité liés à l'access management, dans ses dimensions techniques et fonctionnelles. Elle accompagne l'ensemble des métiers du groupe en proposant des services de sécurités permettant d'assurer leur business, en garantissant une maîtrise des accès à leurs actifs et une conformité avec les règles auxquels ils sont soumis. Cette équipe a pour responsabilité principale d'assurer le maintien en condition opérationnel, le support niveau 3, de répondre aux besoins via des cadrages, des études d'opportunités, de faisabilités, la conception, les tests, l'accompagnement et la formation : elle adresse de bout en bout l'ensemble des phases de fourniture de services nouveaux, sur un périmètre de responsabilité international. Périmètres couverts : solution d'identification, solution d'authentification, gestion des secrets, gestion des comptes à privilèges, security system hardening (surcouche système de sécurité), contrôle secondaire, access modeling, etc. : l'ensemble des services de gestion des identités entre dans le périmètre (aussi appelé IAM ou IAG). Missions Principales IAM Sécurité – Architecture & Ingénierie (type intégrateur / développeur) • Standards IAM (Identity Federation, IDP, SAML, IDConnect, Oauth, etc.) • Expérience et maîtrise des produits SailPoint • Grande expérience dans l'automatisation des tests et QA testing avec un outil du marché • Évaluation des besoins fonctionnels, techniques et sécurité autour des besoins et problématiques IAM • Challenge des demandes / besoins, identification des besoins ou problématique métiers • Étude, vérification et validation des concepts • Conception, modélisation et intégration des solutions techniques, dans un contexte hybride Cloud / on prem et multi-technologique • Amélioration de l'existant : simplification, rationalisation et homogénéisation dans un objectif de transformation à moyen terme • Audit de l'existant pour proposer des améliorations • Traduction des besoins, exigences et règles en processus et procédure • Garantie du MCO, garantie des SLA, amélioration du run • Formation et accompagnement des différents niveaux de supports (N2, fonctionnels, techniques) • Production et challenge des réponses techniques proposées par les différentes parties • Garantie de la pertinence des solutions proposées dans une vision d'ensemble et dans un souci de maintien en condition opérationnelle • Garantie que les solutions proposées répondent parfaitement aux enjeux et aux attentes fonctionnelles des métiers tout en garantissant le respect des bonnes pratiques de sécurité • Communication et collaboration au sein du service IT Security & Risk
Offre d'emploi
Développeur front react / Next js + Azure + XP E-commerce
Publiée le
Azure
Next.js
React
3 ans
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Ta mission •Concevoir et développer des interfaces Front ambitieuses et performantes (React, Next.js, TypeScript, Web component), orientées SEO et Core Web Vitals, accessibles (RGAA/WCAG). •Porter la qualité logicielle (Software Craftsmanship) : TDD, clean code, design simple & robuste, revues de code, pair/mob programming. •Collaborer avec l’architecte & le tech lead pour faire évoluer l’architecture (SSR/SSG, caching, observabilité, monitoring). •Faire grandir le Design System en coopération avec l’équipe ad-hoc (Storybook, tokens, guidelines d’accessibilité), et accompagner son adoption dans les produits. •Améliorer en continu : CI/CD, tests automatisés, feature flags, A/B testing, observabilité et feedback loops. Livrables Front : pages produit haute performance (SSR/SSG), gestion de l’état, data fetching, routing, optimisations (images, scripts, bundles, lazy & code splitting), accessibilité et SEO by design. •Qualité : stratégie de tests multi-niveaux (unitaires, intégration, contract tests, E2E), dette maîtrisée, ADRs, sécurité (OWASP), revues structurées. •Ops & Delivery : déploiements progressifs, monitoring et SLOs, analyse d’incidents/post-mortems, culture data-driven. •Engagement : évangélisation craft, animation de rituels, capacité à challenger avec bienveillance et à faire converger les décisions.
Mission freelance
Senior Data Scientist - Gen AI - Finance (h/f)
Publiée le
12 mois
650-750 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un Data Scientist expérimenté, spécialisé dans l'IA générique et Python ? Emagine vous offre l'opportunité de guider et de diriger le développement de structures et d'outils efficaces afin de créer des applications d'IA fiables et dignes de confiance dans un environnement bancaire international. Are you an experienced Data Scientist with expertise in Gen AI and Python? Emagine has an opportunity for you to guide and lead the development of effective structures and tools to create reliable, trustworthy AI applications within a global banking environment. As part of an AI-focused emagine team working on Gen AI initiatives that leverage LLMs and advanced techniques to solve complex business problems. You will work on unstructured data from sources such as legal documents and financial trading policies, building solutions that enable accurate and reliable outcomes. Main Responsibilities Lead the design and implementation of Gen AI solutions for text-based and LLM-driven use cases. Develop Python-based tools for data ingestion, modelling, and manipulation of large volumes of unstructured data. Define effective structures and frameworks to ensure reliability and trustworthiness in AI applications. Collaborate with legal and compliance teams to process and model complex datasets. Key Requirements 5+ years of experience in Data Science including international corporate environments. Strong expertise in Python and hands-on experience with LLMs (e.g., Lama 7DB, GPT-4 API). Familiarity with vectorization, chunking, and advanced data modelling techniques. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Nice to Have Exposure to legal or procedure-focused applications. Other Details Work is a minimum of 3 days per week on-site (8th). Apply with your latest CV or reach out to Brendan to find out more.
Mission freelance
228728/Architecte GCP - Île de France
Publiée le
Google Cloud Platform (GCP)
3 mois
Île-de-France, France
Télétravail partiel
Architecte GCP - Île de France Compétences attendues Expertise technique GCP (indispensable) : Google Cloud Composer (orchestration des workflows). Google Cloud Storage (gestion et sécurisation des données). Google BigQuery (data warehouse et analytics). En tant qu’expert Google Cloud Platform (GCP), l'expert accompagnera l’équipe projet sur l’ensemble des phases – conception, réalisation et déploiement – afin de garantir l’atteinte des objectifs stratégiques : Centraliser, fiabiliser et standardiser les données RH essentielles. Faciliter la gestion des processus et ressources humaines. Améliorer la qualité et la pertinence des analyses RH et des reportings. Assurer une cohérence et une intégrité des données à l’échelle du groupe. Méthodologie projet Le projet est conduit selon une approche agile, privilégiant : L’adaptabilité face aux besoins métier, La collaboration transverse, L’amélioration continue. 👉 Une expérience dans un contexte agile (Scrum, SAFe ou équivalent) est donc un atout recherché. Compétences attendues Expertise technique GCP (indispensable) : Google Cloud Composer (orchestration des workflows). Google Cloud Storage (gestion et sécurisation des données). Google BigQuery (data warehouse et analytics). Compétences complémentaires : Power BI : visualisation et analyse des données RH. Data engineering / ETL : conception et optimisation de flux de données. Sensibilité à la qualité et gouvernance des données . Profil recherché Expérience confirmée sur des projets de migration, intégration ou fiabilisation de données sous GCP. Capacité à accompagner les équipes projet dans un rôle à la fois technique et conseil . Bon relationnel et capacité à vulgariser les aspects techniques auprès des métiers RH. Objectifs et livrables Architecture GCP qui répond aux attente du contexte Livrables techniques : DAT, DEX, etc. Accompagnement des développements Compétences demandées Compétences Niveau de compétence Google Cloud Composer Expert Google Cloud Storage Expert BIGQUERY Expert Apache Airflow Expert
Mission freelance
Data Engineer - Gen AI - Finance (h/f)
Publiée le
12 mois
600-700 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un ingénieur de données expérimenté, spécialisé dans l'IA générique et Python ? emagine vous offre l'opportunité de rejoindre une équipe dirigée par emagine qui fournit des solutions basées sur l'IA dans un environnement bancaire international. Are you an experienced Data Engineer with expertise in Gen AI and Python? emagine has an opportunity for you to join an emagine-led team delivering AI-driven solutions within a global banking environment. You will play a key role in building on-prem AI tools that process and model large volumes of unstructured data from sources such as legal documents and financial policies. This is a hands-on role requiring strong technical skills and the ability to design efficient data pipelines for Gen AI applications. Main Responsibilities Design and implement data ingestion pipelines for structured and unstructured data. Apply techniques such as vectorization and chunking to prepare data for LLM-based solutions. Develop Python-based tools for large-scale data processing and storage manipulation. Collaborate with Data Scientists and Business Analysts to ensure data readiness for AI models. Key Requirements 5+ years of experience as a Data Engineer in complex environments. Strong expertise in Python and experience with data modelling for AI applications. Familiarity with vectorization, chunking, and handling large datasets. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Fluent in English Nice to Have Exposure to legal or procedure-focused applications. Other Details: This position is Hybrid – on-site minimum 3 days per week in Paris 8th arrondissement . Apply with your latest CV or reach out to Brendan to find out more.
Offre d'emploi
Data Analyst - Qlik Sense - Rennes
Publiée le
Data visualisation
Qlik Sense
Qlikview
3 mois
40k-45k €
400-450 €
Rennes, Bretagne
Télétravail partiel
Nous recherchons pour le compte de notre client grand compte national un(e) consultant développeur décisionnel . Ses Principales missions : Accompagnement des métiers dans l’expression des besoins et dans les recettes Modélisation décisionnelle Conception, réalisation et maintenance de tableaux de bord ou applications décisionnelles sous QlikView et/ou QlikSense Argain Consulting Innovation est une marque forte spécialisée en performance des projets, des organisations et valorisation de la donnée au sein de l'écosystème Alan Allman Associates implantée à Paris, Nantes, Lyon, Niort. Nous mettons un point d'honneur à maintenir le lien avec chacun de nos talents et mettons tout en œuvre pour développer et entretenir un fort sentiment d'appartenance. Nous rejoindre, c’est intégrer une équipe à taille humaine dont l’humain est l’épicentre, un cabinet où autonomie, confiance et partage sont des principes forts.
Mission freelance
Business Analyst - Gen AI - Banking & Finance (h/f)
Publiée le
12 mois
550-650 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un analyste commercial expérimenté et vous avez une formation dans le domaine bancaire ou financier ? Nous vous offrons la possibilité de rejoindre une équipe dirigée par emagine qui soutient des initiatives en matière d'IA et pilote la collecte des besoins pour un client bancaire international. Are you an experienced Business Analyst with a background in banking or finance? We have an opportunity for you to join an emagine-led team supporting AI initiatives and driving requirements gathering for a global banking client. Main Responsibilities Work with legal and compliance teams to understand and articulate requirements. Drive discussions across multiple groups to logical solutions. Perform light PM activities as needed. Key Requirements Strong experience in banking or financial services. Excellent stakeholder management and communication skills. Ability to work cross-functionally and proactively in a fast-paced environment. Fluent in English. Other Details : This role is based in Paris, requiring on-site presence a minimum of 3 days per week in the 8th arrondissement. Apply with your latest CV or reach out to Brendan to find out more.
Offre d'emploi
Data Engineer H/F
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : m69oqbzal8
Offre d'emploi
Ingénieur DevOps Big Data (H/F)
Publiée le
Ansible
Apache Kafka
Cloudera
1 an
55k-65k €
500-520 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
Offre d'emploi
Développeur Full-Stack Java Angular H/F
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Télétravail partiel
Au sein de la Practice Digitale du Groupe, vous rejoindrez une équipe d'experts et de passionnés et apporterez votre contribution sur des projets d'envergure. Vous aurez la charge de : • Participer à la conception des user ou technical stories à implémenter • Réaliser des analyses techniques et des études d'impacts en amont des développements • Développer des solutions dans le respect des bonnes pratiques • Produire un code de qualité, lisible, documenté et maintenable par l'équipe • Tester votre code et apporterez les corrections nécessaires • Participer activement à l'amélioration des applications, d'un point de vue expérience utilisateur et technique • Participer à l'amélioration des pratiques de développements et au partage de connaissances en intégrant nos communautés Référence de l'offre : kymlxreaaa
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)
Publiée le
Architecture
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Offre d'emploi
Chef de projet - Déploiement Télécom
Publiée le
Ansible
Apache Airflow
Apache Spark
1 an
54k €
500 €
La Défense, Île-de-France
Télétravail partiel
Dans le cadre du renforcement de la capacité de support sur la nouvelle offre DATAHUB , l’ingénieur support Data aura pour mission d’assurer le maintien en condition opérationnelle, le support de niveau 2 et l’optimisation des plateformes Apache Spark , Apache Airflow / Astronomer et Starburst (Trino) , déployées sur Kubernetes (IKS) et prochainement sur OpenShift . Le poste consiste à intervenir sur les incidents de production, analyser les causes racines, contribuer à l’optimisation des traitements et accompagner les équipes métiers dans l’utilisation efficace et sécurisée des plateformes. L’ingénieur participera également à la documentation technique, à la mise en œuvre des bonnes pratiques d’exploitation et à l’amélioration continue de l’écosystème DataHub. Il travaillera en étroite collaboration avec les équipes Data, Infrastructure et Sécurité afin de garantir la performance, la fiabilité et la scalabilité des environnements de production.
Offre d'emploi
Data Consultant (Tableau to Power BI Migration)
Publiée le
MSBI
Oracle SQL Developer
Tableau software
Île-de-France, France
Télétravail partiel
Dans le cadre de ses projets de transformation data, Hextaem accompagne l’un de ses clients majeurs dans la migration de sa plateforme BI de Tableau vers Power BI . L’objectif est de moderniser l’écosystème de reporting , d’améliorer la performance des analyses et de renforcer l’autonomie des utilisateurs métiers. Le/la Consultant(e) Data interviendra sur l’ensemble du cycle de migration : analyse du parc existant, conception de l’architecture cible, migration technique et fonctionnelle, validation des données et accompagnement des utilisateurs. Missions principales 1. Analyse et cadrage Cartographier les rapports et jeux de données existants sous Tableau. Identifier les sources de données, flux et dépendances techniques. Définir l’architecture cible Power BI (datasets, dataflows, workspaces). Établir la stratégie, le plan de migration et le calendrier associé. 2. Migration et développement Reproduire et optimiser les dashboards, indicateurs et modèles dans Power BI. Concevoir des modèles de données performants (DAX, Power Query). Garantir la cohérence visuelle et fonctionnelle entre Tableau et Power BI. Gérer la publication, les jeux de données, les rafraîchissements et les droits d’accès sur Power BI Service. 3. Tests et validation Réaliser les tests de recette technique et fonctionnelle. Comparer les résultats entre Tableau et Power BI pour assurer la justesse des données. Documenter et corriger les écarts identifiés. 4. Formation et accompagnement Former les utilisateurs clés à Power BI et aux bonnes pratiques. Documenter les nouveaux rapports et processus de gouvernance. Accompagner les équipes métiers dans l’adoption de Power BI. Compétences techniques Maîtrise de Tableau Software et Power BI (Desktop & Service) . Excellente connaissance de SQL , DAX et Power Query (M) . Solides compétences en modélisation de données (étoile / flocon). Connaissance des principales sources de données : SQL Server, Oracle, Excel, API, Data Lake. Une expérience sur (ADF, Synapse, Databricks) est un plus. Maîtrise des bonnes pratiques en gouvernance BI , performance et sécurité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Réforme de l’assiette sociale
- Projet d'évolution
- Le marché du freelancing et de l’IT en 2026 : à quoi s’attendre ?
- Demande d’enquête métier – Manager en infrastructures et cybersécurité des systèmes d’information
- SASU est ce que le pv d'ag existe ou seulement décision de l'associ unique?
- Pourcentage total de détention du capital à l'INPI= nue-propriété
9329 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois