L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 723 résultats.
Mission freelance
Data Architecte H/F
Publiée le
Apache Airflow
Apache Spark
BigQuery
210 jours
510-770 €
Paris, France
Télétravail partiel
Rejoignez un leader français de l'audiovisuel pour une mission stratégique d' Architecte Data GCP . Vous accompagnerez la Direction Technique du Numérique dans la consolidation et l'optimisation de sa Data Platform, en interface directe avec les équipes Data (Product Owners, Data Engineers, Data Scientists). Votre rôle sera de structurer l'architecture technique globale, améliorer l'expérience développeur et piloter l'optimisation des coûts cloud. Vos Missions : 🏗️ Architecture Technique Garantir la cohérence de la stack data entre équipes et projets Définir et faire respecter les contrats d'interface (schémas, API, data contracts) Effectuer la veille technologique et évaluer les standards du marché Tester, auditer et introduire de nouvelles technologies Réaliser un audit de l'architecture existante et recommander les améliorations ⚡ Developer Experience Contribuer à la création de modules Terraform et à leur industrialisation Accompagner les équipes dans l'usage de l'Infrastructure as Code Définir les standards CI/CD pour les équipes data (tests, lint, automatisation) 💰 FinOps & Optimisation Mettre en place un suivi budgétaire par équipe Implémenter des outils d'alerting et monitoring (quotas, seuils, dérives) Identifier les leviers d'optimisation et participer à la roadmap FinOps
Offre d'emploi
DATA ENGINEER
Publiée le
24 mois
35k-40k €
250-400 €
Nantes, Pays de la Loire
Télétravail partiel
L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Mission freelance
POT8787 - Un Lead Développeur Power BI expérimenté sur Saint-Denis
Publiée le
Microsoft Power BI
6 mois
Saint-Denis, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses client, Un Lead Développeur Power BI expérimenté sur Saint-Denis. Compétences techniques indispensables : • Expertise Power BI (Desktop & Service) • Maîtrise du DAX et de la modélisation de données (modèles en étoile, relations) • Connaissances avancées en SQL et bases de données • Maîtrise de la Power Platform : PowerApps, Power Automate, DataVerse, DataFlow, MS365 • Connaissance des normes de sécurité et gouvernance (RLS, gestion des accès) • Expérience en développement web et intégration agile • Veille technologique et optimisation des performances Power BI Compétences fonctionnelles et soft skills : • Aisance relationnelle et esprit d’équipe • Capacité à mentorer et former des développeurs juniors • Autonomie, rigueur, sens de l’analyse et esprit de synthèse • Capacité à gérer des projets multiples et à respecter les priorités et délais • Discrétion et respect de la confidentialité des données Missions principales • Accompagner et former les développeurs BI / Data Analysts • Recueillir les besoins utilisateurs, analyser la faisabilité et rédiger des spécifications • Concevoir, développer, déployer et maintenir des rapports et dashboards Power BI • Modéliser, transformer et enrichir les données via Power Query • Assurer la qualité et cohérence des données, tests DAX, optimisation des performances • Respecter les standards Microsoft, normes de sécurité et gouvernance • Documenter techniquement les modèles et indicateurs • Participer à la veille technologique et au support utilisateur
Mission freelance
Architecte Technique Solution Data
Publiée le
Big Data
Cloudera
3 mois
400-690 €
Île-de-France, France
La Tribu DATA (DAT) construit et développe des applications sur la base de puissantes plates-formes DATA à des fins d’usages variés servant toutes les directions métiers de la banque. Pour répondre à ces usages, DAT est au cœur de la stratégie datacentric de LCL, et intervient aussi bien au niveau de l’architecture Data, sur les technologies data, Big data, IA, Teradata, SAS, ainsi que sur les solutions analytiques et de datavizualisation. Plus particulièrement dans le cadre de la squad Socles Data, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....). LCL SNI TPI PSP 19/09/2025 Page 1 Les solutions doivent être mises en place dans une optique de service performant et évolutif pour nos métiers et utilisateurs divers, prenant en compte l’écosystème informatique LCL actuel ainsi que la stratégie de modernisation future. Le profil recherché doit avoir une connaissance forte des solutions Data de l’écosystème LCL, ainsi qu’une expérience très significative en qualité d’architecte technique Data. Il doit également avoir quelques notions des nouvelles technologies présentées dans le cadre de la stratégie de modernisation de nos plates-formes et être capable de monter rapidement en compétences dessus. Description complémentaire du profil Softskills: Sens du service. Bonne gestion du stress et des priorisations Très bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie (
Mission freelance
Analyste PowerBI H/F - Marseille (13)
Publiée le
Microsoft Power BI
Snowflake
12 mois
450-550 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Notre client dans le secteur Autre recherche un Analyste PowerBI H/F Descriptif de la mission: Notre client recherche un consultant senior pour renforcer son Data Office , dans un contexte de forte croissance des usages data au sein des directions Finance et Contrôle de Gestion . La mission s’inscrit dans une double dimension gestion de projet Data/BI et expertise Power BI / Finance , avec un rôle clé dans le déploiement et la structuration de la BI à l’échelle du groupe. Le consultant interviendra sur un périmètre large comprenant : L’accompagnement du déploiement BI sur un parc d’environ 150 outils internes. La coordination et le pilotage d’équipes BI (environ 10 personnes ) et reporting (environ 10 personnes ). La création, optimisation et industrialisation de modèles et rapports Power BI , avec une donnée déjà structurée dans Snowflake , mais nécessitant une harmonisation accrue pour répondre à la forte demande des métiers. Le cadrage fonctionnel, la modélisation de données financières, la définition des règles de gestion et l’alignement avec les équipes IT en charge de l’ingestion des données. Compétences / Qualités indispensables: +7 ans d’expérience en BI & Data Finance , Expérience confirmée en environnements grands comptes, Expertise solide en pilotage de programmes BI transverses pour la Finance, Anglais bilingue Compétences / Qualités qui seraient un +: Certifications : DA-100 (Power BI), Microsoft Certified Trainer, Fabric Analytics Engineer
Offre d'emploi
Data analyst / expert Power BI
Publiée le
Data analysis
DAX
Microsoft Excel
1 an
40k-50k €
450-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre de missions à venir en cours de qualification, nous recherchons dès maintenant des consultants Power BI (CDI ou Freelance) prêts à rejoindre nos équipes dès que possible Exemples de missions à venir : Développement et optimisation de dashboards Power BI Refonte ou migration de rapports depuis d'autres outils (QlikView, Tableau, Excel...) Recueil de besoins métiers et accompagnement à la prise en main des outils Automatisation du reporting et amélioration des KPIs Mise en place de solutions de visualisation pour différents départements (finance, RH, marketing, etc.)
Mission freelance
Data Engineer Confirmé – GCP / DBT / Power BI
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
3 mois
100-430 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Data Engineer Confirmé pour intervenir chez l’un de nos clients dans le cadre de la mise en place et l’industrialisation d’une plateforme data moderne sur Google Cloud Platform . Missions principales : Conception et développement de pipelines de données sur GCP. Modélisation et transformation des données avec DBT / SQLMESH . Mise en place de dashboards et reporting via Power BI . Optimisation des performances et bonnes pratiques de CI/CD. Collaboration étroite avec les équipes Data, BI et métiers.
Mission freelance
Customer Data Modeler
Publiée le
Big Data
6 mois
France
Télétravail 100%
Dans le cadre de la phase 2 du projet , nous recherchons un expert pour le modèle de données client . Responsabilités : Concevoir et documenter les modèles de données Customer Master Data . Définir les processus de gouvernance, rôles et règles de qualité. Collaborer avec les équipes métier et IT pour garantir l’alignement. Compétences requises : Expertise solide en Master Data Management , particulièrement sur le domaine Customer (modélisation, gouvernance, qualité). Bonne compréhension des processus liés au domaine client. Connaissance de SAP S/4HANA et SAP MDG (un plus).
Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France
Publiée le
Big Data
Cloud
Infrastructure
6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Offre d'emploi
Consultant MOA Support FO (H/F)
Publiée le
Java
Microsoft Power BI
Nosql
3 ans
50k-60k €
500 €
Île-de-France, France
Télétravail partiel
Missions : • Collecter, analyser et formaliser sous forme de spécifications les besoins fonctionnels et/ou techniques et définir les tests d’acceptances. • Participer au découpage sous forme de ticket JIRA avec les développeurs et compléter leur rédaction (pendant les phases de préparation de PI, ou pendant le PI planning). • Tester les développements, et qualifier les releases. Dans ce cadre, définir la stratégie de tests, formaliser les cahiers de recette et réaliser les tests fonctionnels afin de garantir la bonne adéquation des solutions développées avec les exigences client d’une part et garantir la sécurité et la stabilité des solutions déployées d’autre part. Organiser et assurer la communication avec les différents partenaires (Front, Risques) • Participer à la production des livrables liées aux releases : release note, document d’homologation, documentation fonctionnelle, etc • Maitriser et faire évoluer les outils d’analyses (basés sur PowerBI, Python). • Assurer le support de production, en particulier sur les analyses fonctionnelles. Créer les tickets JIRA associé lorsque des correctifs sont nécessaires. • Participer aux différents rituels Agile.
Mission freelance
Dév Power BI et UX
Publiée le
ESG
Finance
Microsoft Power BI
3 ans
Paris, France
Télétravail partiel
Le département Digital Lab dispose d’une plateforme data complexe (base NoSQL, technologie MarkLogic) et l’utilise entre autres pour : - La plateforme DataHub ISR : collecter, stocker et restituer de la data ESG (25 providers, 75 k émetteurs, 5,4 k indicateurs) - La plateforme Lect-IA : collecter, tagguer via un graph de connaissance et restituer des documents textuels Des plateformes collaboratives : permet de répartir une liste de question parmi différents collaborateurs (notion d’historique, validation, relance, monitoring) Après trois années de développement, saluées par trois prix d’innovation, nous souhaitons consolider notre travail et industrialiser certains process afin de réduire le « run ». Grâce à ce travail, nous pourrons garder une capacité à développer rapidement des prototypes à la demande, ce qui fait partie de notre définition de laboratoire digital.
Offre d'emploi
Data Consultant (Tableau to Power BI Migration)
Publiée le
MSBI
Oracle SQL Developer
Tableau software
Île-de-France, France
Télétravail partiel
Dans le cadre de ses projets de transformation data, Hextaem accompagne l’un de ses clients majeurs dans la migration de sa plateforme BI de Tableau vers Power BI . L’objectif est de moderniser l’écosystème de reporting , d’améliorer la performance des analyses et de renforcer l’autonomie des utilisateurs métiers. Le/la Consultant(e) Data interviendra sur l’ensemble du cycle de migration : analyse du parc existant, conception de l’architecture cible, migration technique et fonctionnelle, validation des données et accompagnement des utilisateurs. Missions principales 1. Analyse et cadrage Cartographier les rapports et jeux de données existants sous Tableau. Identifier les sources de données, flux et dépendances techniques. Définir l’architecture cible Power BI (datasets, dataflows, workspaces). Établir la stratégie, le plan de migration et le calendrier associé. 2. Migration et développement Reproduire et optimiser les dashboards, indicateurs et modèles dans Power BI. Concevoir des modèles de données performants (DAX, Power Query). Garantir la cohérence visuelle et fonctionnelle entre Tableau et Power BI. Gérer la publication, les jeux de données, les rafraîchissements et les droits d’accès sur Power BI Service. 3. Tests et validation Réaliser les tests de recette technique et fonctionnelle. Comparer les résultats entre Tableau et Power BI pour assurer la justesse des données. Documenter et corriger les écarts identifiés. 4. Formation et accompagnement Former les utilisateurs clés à Power BI et aux bonnes pratiques. Documenter les nouveaux rapports et processus de gouvernance. Accompagner les équipes métiers dans l’adoption de Power BI. Compétences techniques Maîtrise de Tableau Software et Power BI (Desktop & Service) . Excellente connaissance de SQL , DAX et Power Query (M) . Solides compétences en modélisation de données (étoile / flocon). Connaissance des principales sources de données : SQL Server, Oracle, Excel, API, Data Lake. Une expérience sur (ADF, Synapse, Databricks) est un plus. Maîtrise des bonnes pratiques en gouvernance BI , performance et sécurité.
Mission freelance
Expert Migration Sage 1000 / Power BI
Publiée le
Sage 100
3 mois
500-750 €
Paris, France
Télétravail partiel
Nous recherchons un consultant expert Sage 1000 pour le compte d’un de nos clients du secteur de la formation dans le cadre d’un projet de migration et d’optimisation du système comptable. Contexte de la mission Dans le cadre de la finalisation d’une migration vers Sage 1000, notre client souhaite renforcer son équipe projet afin d’assurer l’achèvement des travaux techniques et fonctionnels, ainsi que la mise en qualité des données et le déploiement de nouveaux paramétrages analytiques. Une montée en puissance sur Power BI est également prévue pour optimiser le reporting post-migration. Rôles et responsabilités Finaliser les travaux liés à la migration Sage 1000 déjà engagée. Mettre à jour et fiabiliser l’analytique sur la base reprise. Réaliser les ajustements fonctionnels et techniques nécessaires dans Sage 1000. Assurer le paramétrage et l’intégration des nouveaux modèles Power BI pour les besoins de reporting. Participer aux ateliers avec les équipes métiers et comptables. Contribuer à la recette fonctionnelle et au support au démarrage. Documenter les actions et paramétrages réalisés. Compétences requises Expertise confirmée sur Sage 1000, notamment dans des contextes de migration. Très bonne compréhension des enjeux comptables et analytiques. Expérience significative sur le paramétrage et la reprise de données. Compétences en Power BI : paramétrage, modèles de données, déploiement. Détails de la mission Lieu : Bagnolet (hybride possible selon organisation du client) Durée : 6 mois (à affiner avec le client) Démarrage : ASAP Statut : Freelance
Offre d'emploi
Développeur PowerBI
Publiée le
MySQL
18 mois
10k-40k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 4 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : BI Intervention pour rejoindre l’équipe de développement BI. MISSIONS - Assurer la maintenance corrective et évolutive de plusieurs applicatifs BI existants. - Participer aux développements et optimisations des solutions Power BI pour répondre aux besoins métiers. Responsabilités : - Analyser les incidents et proposer des correctifs. - Développer de nouvelles fonctionnalités et améliorer les rapports existants. - Garantir la qualité des données et la performance des dashboards. - Collaborer avec les équipes internes pour comprendre les besoins et les traduire en solutions BI. Expertise souhaitée Compétences requises - Maîtrise de Power BI (DAX, Power Query, modélisation de données). - Connaissance des bases de données (SQL Server, Oracle). - Bonne compréhension des architectures BI et des flux de données. - Capacité à travailler en équipe et à communiquer avec les métiers.
Offre d'emploi
PMO Cyber POWER BI
Publiée le
Cybersécurité
Microsoft Power BI
3 ans
40k-64k €
500-560 €
Île-de-France, France
Télétravail partiel
Au sein du département Information Security & IT Risk de X, le responsable Cyber Sécurité renforce son dispositif et recherche une assistance avec une bonne expérience dans les domaines de la cyber sécurité, de l'activité de PMO Cyber sécurité, de la gouvernance de la sécurité des systèmes d’information, idéalement exercée dans le secteur de l’industrie financière. Les missions sont: Assistance au responsable Cyber Sécurité dans le cadre du programme cyber sécurité. Cadrage des initiatives du programme, du suivi budgétaire, de la roadmap globale, de la préparation et de la tenue des divers comités opérationnels. Pour cela, il faudra un suivi de l’avancement des initiatives, une collecte des indicateurs clés, une assurance du respect des plannings et du budget, et l'escalade les alertes. Relai sur l’ensemble des sujets pour la synchronisation des initiatives avec celles du Groupe, en lien avec les équipes programmes Groupe. Appui sur celles-ci pour l’alignement des objectifs, en particulier lors des campagnes de collecte de preuves et des reportings de maturité. Cyber Sécurité et Power BI
Offre d'emploi
Ingénieur JAVA - SPARK - EXPERIMENTE ( H/F)
Publiée le
Angular
Apache Spark
API REST
3 ans
44k-63k €
450-600 €
Guyancourt, Île-de-France
Télétravail partiel
Nous recherchons un ingénieur Java senior, expérimenté en développement de solutions de traitement de données avec Spark, déploiement sur Kubernetes et conception de dashboards PowerBI, capable de travailler en autonomie et en collaboration avec des équipes multidisciplinaires. Missions principales : Développement de composants Java pour la collecte, le traitement et la transformation de données via API, fichiers ou bases de données. Conception et mise en place de traitements de données avec Spark . Déploiement, gestion et optimisation d’applications sur Kubernetes. Rédaction et maintenance de tests automatisés avec Cucumber pour assurer la qualité du code. Conception et développement de dashboards et rapports PowerBI. Collaboration avec les équipes infrastructure pour garantir la sécurité et l’intégration des applications. Participation à l’amélioration continue des applications et des process de développement. Profil recherché : Expérience : 5 à 8 ans en développement Java avec une expérience sur technologies de traitement de données (Spark, Kafka, etc.). Compétences techniques : Java et frameworks Spring/Hibernate Angular pour le développement d’IHM Kubernetes et bonnes pratiques DevOps Spark 3 en Java Cucumber pour tests automatisés Développement d’API REST/SOAP, OAuth2, TDD Conception de dashboards PowerBI Connaissance des architectures microservices et expérience cloud (GCP, AWS)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2723 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois