L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 039 résultats.
Mission freelance
Expert Data Microsoft : Power BI et Power Platform
Comet
Publiée le
microsoft
Microsoft Power BI
Power Platform
8 mois
420-630 €
Île-de-France, France
Bonjour à tous, notamment aux experts Data Microsoft ⚙️ évoluant sur Power BI et Power Platform 🔎 Je cherche un Consultant Data & Power Platform expérimenté pour rejoindre un Centre de Compétence IT Finance & Opérations, dans le cadre de projets stratégiques de pilotage de la performance produit. L’objectif est de construire et faire évoluer une chaîne de données complète et automatisée, reposant sur l’écosystème Microsoft Power Platform, afin de fiabiliser, transformer et exposer la donnée à des fins de reporting et de pilotage opérationnel. Le contexte est riche et hétérogène avec des flux de données multi-sources (Dataflows Power BI, Datasets, Excel, XML via VBA, APIs, Dataverse et Power Automate), dans une logique d’industrialisation et de fiabilisation de bout en bout. 💻 Ce que tu vas faire : - Cartographier les flux de données existants et proposer une architecture cible - Concevoir et optimiser des dashboards Power BI (modélisation, DAX, Power Query) - Développer et maintenir des rapports de pilotage de la performance produit - Automatiser les flux de données via Power Automate et connecteurs Power Platform - Intégrer et orchestrer des sources hétérogènes (Excel, XML, APIs REST, Dataverse) - Mettre en place des contrôles et data quality checks automatisés sur l’ensemble de la chaîne - Construire et suivre les KPI liés au déploiement et au pilotage des solutions - Assurer le support N2 sur les incidents Power Platform - Accompagner les équipes métiers (formation, documentation, support) - Garantir la documentation et la passation des solutions développées 🎯 Stack & environnement : Power BI / Power Query / DAX / Power Automate / Dataverse / APIs REST / JSON / XML / Excel VBA / Dataflows / Datasets / Power Platform Une belle fin de journée !
Offre d'emploi
DATA OPS DATAIKU DSS
R&S TELECOM
Publiée le
AWS Cloud
Azure
CI/CD
6 mois
Bordeaux, Nouvelle-Aquitaine
Objectifs de la mission Industrialiser les projets de Machine Learning développés sous Dataiku DSS Mettre en place une chaîne MLOps robuste, sécurisée et maintenable Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku Assurer le bon passage du POC à la production, puis l’exploitation dans le temps Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data Périmètre d’intervention Projets Data Science & IA développés sous Dataiku DSS Chaînes MLOps (entraînement, déploiement, supervision des modèles) Connexion de Dataiku aux sources de données de l’entreprise Environnements DEV / TEST / PROD Livrables attendus Pipelines MLOps Dataiku industrialisés et documentés Modèles ML déployés et supervisés en production Connecteurs Dataiku vers les sources de données opérationnels Documentation d’exploitation MLOps & DataOps Recommandations de standardisation et d’amélioration continue Interactions Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation Compétences Dataiku DSS – niveau avancé (MLOps & DataOps) Expérience confirmée en industrialisation de modèles ML Python, SQL CI/CD, Git Très bonne compréhension des architectures Data Environnements Cloud (AWS / GCP / Azure) Sensibilité forte aux enjeux sécurité, RUN et exploitation
Offre d'emploi
Data Engineer Databricks
Atlanse
Publiée le
Databricks
Python
SQL
1 an
50k-60k €
400-500 €
Châtillon, Île-de-France
Vous intégrerez une équipe, responsable de la migration de traitements existants depuis une plateforme on premise vers une plateforme Data Cloud basée sur Azure et Databricks. Dans ce contexte, vous interviendrez sur la conception et la structuration des traitements data. Votre rôle Conception et développement de solutions data · Concevoir les architectures techniques nécessaires pour la valorisation des données · Concevoir les solutions permettant le traitement des données · Réaliser les croisements de données nécessaires ainsi que les opérations de validation, correction et contrôle qualité · Apporter une expertise technique pour développer les solutions data appropriées aux différents cas d'usage Gouvernance et gestion de la donnée · Structurer les données en intégrant les enjeux de cycle de vie · Identifier et qualifier les sources de données pertinentes · Garantir la cohérence et la qualité de l'intégration des données · Veiller au respect des exigences de traitement et de sécurité sur les données · Suivre et référencer l’usage des données Documentation et collaboration · Documenter et maintenir à jour les référentiels et catalogues de données · Travailler en collaboration avec les Architectes d'Entreprise Data
Offre d'emploi
Ingénieur Virtualisation & Automatisation VMware / Ansible (H/F)
RIDCHA DATA
Publiée le
Ansible
DevOps
Python
1 an
Charenton-le-Pont, Île-de-France
Contexte de la mission Dans le cadre du développement et de l’optimisation des plateformes de virtualisation, vous intégrerez une équipe spécialisée Virtualisation & Automatisation. La mission vise à accompagner la croissance des activités métiers tout en garantissant la performance, la disponibilité et l’industrialisation des infrastructures. Vous interviendrez dans un environnement transverse en collaboration avec les équipes Réseaux, Stockage et DevOps. Missions principales Virtualisation & Infrastructure Déployer et maintenir les infrastructures VMware ESXi Administrer les environnements NSX, VSAN et Horizon View Participer aux projets d’évolution des infrastructures virtualisées Assurer le maintien en condition opérationnelle des plateformes Automatisation & Industrialisation Concevoir et mettre en œuvre des solutions d’automatisation Développer des scripts d’automatisation et d’exploitation Industrialiser les processus opérationnels Utiliser les API et méthodologies DevOps pour optimiser les opérations Exploitation & Support Traiter les incidents et demandes techniques Réaliser les diagnostics et résoudre les problèmes complexes Assurer le capacity planning des infrastructures Garantir la disponibilité, la sécurité et la qualité des systèmes Architecture & Expertise Participer aux études techniques et aux évolutions d’infrastructure Réaliser les designs techniques et les paramétrages avancés Définir les standards, méthodes et bonnes pratiques Assurer une veille technologique continue Coordination & Conseil Collaborer avec les équipes Réseaux, Stockage et DevOps Assurer un rôle de conseil et d’expertise technique Participer à la qualification des solutions et infrastructures Compétences recherchées Compétences impératives Ansible – Niveau Expert VMware vSphere / ESXi – Niveau Expert Très bonnes compétences en scripting et automatisation Expertise API & méthodologies DevOps Compétences importantes Python – Niveau confirmé Automatisation AAP2 Gestion des environnements virtualisés complexes Compétences appréciées NSX VSAN Horizon View PureStorage iSCSI / SAN
Offre d'emploi
Alternance - Chargé de Projets DATA & B.I H/F
█ █ █ █ █ █ █
Publiée le
Big Data
Microsoft Excel
Python
Vert-le-Grand, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre premium
Offre d'emploi
PO DATA (FH)
ASTRELYA
Publiée le
Data governance
3 ans
55k-70k €
400-550 €
Paris, France
Votre Mission : En tant que PO Data, vous piloterez des projets de transformation sur des produits Data et IA dans des contextes Marketing, CRM, KYC. Vous jouerez un rôle clé dans le cadrage, la structuration et le pilotage de travaux stratégiques, en coordination avec de multiples acteurs internes et externes. Concrètement vous allez : Intégrer un dispositif existant et piloter les nouveaux projets DATA/IA sur l’ensemble des phases : cadrage, Expression des Objectifs, MVP et démarrage des développements. Recueillir, challenger, analyser et prioriser les besoins data des métiers Concevoir les expressions de besoins afférentes Définir la vision data de son périmètre et en construire la roadmap Prioriser les évolutions data en fonction de la valeur pour les métiers et/ou les clients Collaborer avec l’équipe de PO data de tous les périmètres des paiements pour s’assurer de la cohérence de la démarche mise en place Participer aux rituels agiles Garantir la cohérence des données entre les différents métiers, et plus globalement la qualité et la pertinence des livrables data mis à disposition des métiers et/ou des clients Suivre les indicateurs de performance sur son périmètre et mesurer la valeur des solutions mises à disposition Accompagner les utilisateurs dans l’appropriation et l’utilisation des solutions mises à disposition Accompagner les utilisateurs dans l’interprétation et la valorisation des données mises à disposition Garantir la cohérence des jalons et la tenue des échéances de la feuille de route Data et IA. Assurer un rôle de référent(e) sur les bonnes pratiques Data/IA : modèles IA, entraînement et FinOps. Votre futur environnement technique & fonctionnel : · IA / Data : Data engineering, IA Générative, Machine Learning,
Offre d'emploi
Data Solution Architect
LEVUP
Publiée le
Azure
12 mois
Bruxelles, Bruxelles-Capitale, Belgique
L’architecte de solutions Data guide les activités et les livrables d’analyse, de conception et techniques tout au long d’un projet. Il définit l’architecture de la solution en tenant compte des normes existantes et des exigences du système. Il veille à proposer une solution technique conforme aux besoins du client ainsi qu’à la vision de l’architecture d’entreprise cible. L’architecte de solutions Data fournit au chef de projet toutes les informations nécessaires concernant les activités d’analyse, de conception et de développement, ainsi que sur les enjeux architecturaux, techniques et opérationnels. Il est responsable de bout en bout de la définition et de la mise en œuvre de la solution, et veille à trouver le bon compromis entre les différentes exigences (meilleure solution possible). Créer et maintenir l’architecture de la solution via le document d’architecture de solution (SAD) et obtenir sa validation par le comité d’architecture (Architecture Review Board) Identifier les technologies qui seront utilisées pour le projet en collaboration avec les architectes applicatifs et d’entreprise Recommander les méthodologies de développement, frameworks et règles de codage en tenant compte des standards d’architecture et des besoins métier (fonctionnels et non fonctionnels), et en assurer l’application Fournir la conception globale et la structure de l’application S’assurer que la solution finale respecte l’architecture définie Identifier les tâches d’ingénierie logicielle pour le chef de projet Accompagner et guider les autres membres techniques de l’équipe (développeurs et concepteurs) et les aider sur les tâches complexes Assister le chef de projet dans l’estimation des coûts et des bénéfices du projet, notamment sur les aspects techniques Collaborer avec les équipes de test pour identifier les besoins en infrastructure et en support Veiller à ce que les décisions techniques soient prises et documentées Maximiser la réutilisation des actifs existants et des bonnes pratiques dans le cadre du projet
Offre d'emploi
Data Engineering confirmé
AVA2I
Publiée le
DBT
Microsoft Power BI
Île-de-France, France
Concevoir, développer et maintenir les pipelines de données, les modèles analytiques et les tableaux de bord décisionnels afin de garantir une donnée fiable, exploitable et performante pour les équipes métiers. ResponsabilitésData Engineering Concevoir et maintenir les pipelines ETL/ELT. Intégrer des données depuis différentes sources (API, bases SQL, ERP, CRM, fichiers, cloud). Optimiser les traitements de données et la performance des flux. Assurer la qualité, la fiabilité et la gouvernance des données. Mettre en place des tests, monitoring et alertes sur les pipelines. Participer à l’architecture data et aux choix techniques. dbt (Data Build Tool) Développer et maintenir les modèles dbt. Structurer les couches Bronze / Silver / Gold. Créer des tests de qualité et documentation dbt. Gérer les dépendances et transformations SQL. Industrialiser les déploiements CI/CD dbt. Power BI Concevoir des dashboards et rapports interactifs. Créer des modèles de données optimisés. Développer des mesures DAX avancées. Mettre en place la sécurité des accès (RLS). Optimiser les performances des rapports Power BI. Collaborer avec les métiers pour comprendre les besoins analytiques. Compétences techniques requisesObligatoires SQL avancé Power BI (Power Query, DAX, Modélisation) dbt Python ou autre langage scripting Data Warehouse (Snowflake, BigQuery, Redshift, Synapse…) Git / GitLab / GitHub ETL / ELT Modélisation de données Appréciées Airflow / Dagster Azure Data Factory / Microsoft Fabric Docker CI/CD Cloud AWS / Azure / GCP Méthodologies Agile
Mission freelance
Data Product Manager senior ANGLAIS 550 e par j
BI SOLUTIONS
Publiée le
Data Product Management
Gestion de projet
2 ans
400-550 €
Île-de-France, France
Data Product Manager senior Anglais 550 e par j Soutenir l'équipe de gestion de produit dans l'alignement de la stratégie produit Gapp avec les OKR produit. Accompagner l'équipe dans l'identification des problèmes utilisateurs et l'élaboration d'hypothèses pour atteindre les objectifs. Favoriser une culture de l'expérimentation en fournissant outils et expertise. Par d'une feuille de route axée sur les fonctionnalités à une feuille de route axée sur la valeur et les résultats : Contribuer à définir un modèle clair de responsabilité pour la feuille de route produit. Aider les chefs de produit à formuler des objections constructives face aux demandes des parties prenantes. Intégrer une culture axée sur les données, avec des indicateurs clairs (ARPU, conversion, fidélisation). Renforcer la stratégie de monétisation et son impact commercial. 550 e par j
Mission freelance
Power BI : construction et exploitation de tableaux de bord MOA
INSYCO
Publiée le
API
Data governance
DAX
24 mois
500-620 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Expert Power BI Senior pour la construction de tableaux de bord MOA et industrialisation Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/PBI/5292 dans l'objet de votre message La direction MOA d'un grand groupe audiovisuel français travaille à la réalisation de tableaux de bord sous Power BI pour plusieurs domaines fonctionnels : contrôle interne, achats, immobilier et services généraux. Ces tableaux comportent des indicateurs opérationnels et des indicateurs stratégiques. Le processus en place consiste à réaliser des prototypes non industrialisés côté MOA, avant de les confier à l'équipe IT pour industrialisation. La prestation a pour objectif de réaliser ces prototypes pour le compte des chefs de projets fonctionnels concernés, avec un double objectif : qu'ils soient opérationnels pour les équipes métier et prêts à être industrialisés par l'équipe IT. Missions principales Développement Power BI Modéliser les données : création de modèles relationnels, gestion des relations, optimisation des performances Écrire des mesures et colonnes calculées complexes en DAX, optimiser les formules Extraire, transformer et charger les données via Power Query (ETL) Créer des rapports interactifs avec drill-down et filtres dynamiques Calculer des indicateurs (KPI) et réaliser des agrégations temporelles Connecter les rapports à différentes sources de données : SQL Server, Excel, APIs, bases de données Architecture et industrialisation Respecter les bonnes pratiques de développement : nommage, documentation, modularité Concevoir des modèles modulaires facilitant la reprise par l'équipe IT Gérer les versions et assurer le contrôle de source Produire une documentation technique complète des modèles et requêtes Analyse métier et collaboration Traduire les besoins métier en spécifications techniques Distinguer et modéliser les indicateurs opérationnels versus stratégiques Identifier les données pertinentes et leurs sources Collaborer avec les chefs de projets fonctionnels sur les domaines suivants : contrôle interne (conformité, risques, audits), achats (commandes, fournisseurs, budgets, délais), immobilier (patrimoine, occupations, coûts), services généraux (ressources, maintenance, coûts d'exploitation) Respecter les délais de livraison des prototypes Restituer et présenter les livrables aux équipes métier Livrables attendus Prototypes Power BI fonctionnels et testés Documentation technique : modèles de données, dictionnaire des mesures Guide d'utilisation pour les utilisateurs métier Dossier de transfert pour industrialisation par l'équipe IT
Offre d'emploi
Chef de projet data
VISIAN
Publiée le
Big Data
Snowflake
1 an
Île-de-France, France
Contexte Dans le cadre de la structuration de ses plateformes data, la direction souhaite lancer un audit transverse de ses environnements de type lakehouse (notamment Microsoft Fabric, Snowflake, etc.). L’objectif est d’évaluer l’existant, d’identifier les axes d’amélioration et de définir une trajectoire cible. Missions Piloter un audit global des plateformes data de type lakehouse Cartographier les usages, architectures et flux de données existants Analyser les environnements technologiques (ex : Microsoft Fabric, Snowflake) Évaluer la performance, la gouvernance et les coûts associés Identifier les risques (sécurité, qualité de données, dépendances techniques) Recueillir les besoins métiers et les cas d’usage associés Formuler des recommandations stratégiques (architecture cible, bonnes pratiques, rationalisation des outils) Définir une roadmap de transformation data
Mission freelance
Expert DevOps Cloud Azure
5COM Consulting
Publiée le
Azure
Azure DevOps
Powershell
3 ans
400-600 €
Neuilly-sur-Seine, Île-de-France
Contexte de la mission Notre client recherche un consultant DevOps Azure de haut niveau pour concevoir, automatiser et industrialiser ses environnements Cloud de bout en bout. L'enjeu central : travailler main dans la main avec les architectes pour migrer les applications non encore cloudifiées vers un modèle Hub & Spoke, issu du Microsoft Cloud Adoption Framework. Au-delà de la migration, le consultant devra challenger les pratiques DevOps en place et insuffler une vraie dynamique de modernisation au sein des équipes. Objectif principal Collaborer avec les architectes Cloud pour planifier et exécuter la migration des applications existantes vers une architecture Hub & Spoke conforme au Microsoft Cloud Adoption Framework (CAF) — en garantissant sécurité, gouvernance et industrialisation des déploiements. Ce que vous ferez Piloter la migration des applications vers le modèle Hub & Spoke en collaboration avec les architectes, en s'appuyant sur les principes du Microsoft CAF et la structuration en Landing Zones Construire et optimiser les pipelines CI/CD sous Azure DevOps, avec un focus fort sur le Continuous Deployment Automatiser les déploiements via Terraform, PowerShell, YAML Gérer et faire évoluer les scripts d'infrastructure Bicep / ARM Prendre en charge les sujets identité et sécurité via Entra ID Stack technique Azure PaaS • Azure DevOps • Microsoft CAF • Hub & Spoke • Landing Zone • Terraform • PowerShell • YAML • Bicep / ARM • Entra ID
Offre d'emploi
Consultants MS BI Confirmés H/F
MGI Consultants
Publiée le
Azure Data Factory
Microsoft Power BI
Paris, France
Notre client, leader de la transformation urbaine bas carbone, est un groupe français présent sur l’ensemble des métiers de l’immobilier (logement et bureaux ; activités dans les énergies renouvelables, les Datacenters et l’investissement immobilier). Avec sa capacité à porter de grands projets mixtes, il s’impose comme le premier développeur immobilier des territoires en France. Au sein de la Direction des Systèmes d’Information, le Pôle Data recherche un Consultant Microsoft BI confirmé. Sa mission principale sera de prendre en charge les développements liés au projet de reporting pour l’activité énergies renouvelables. Objectifs de la mission Concevoir des modèles de données adaptés Créer et optimiser des bases de données et entrepôts de données (SQL Server principalement) Prendre en charge les développements de rapports Power BI Prendre en charge les développements de scripts SQL/Procédures Prendre en charge les développements des pipelines Azure Data Factory Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality) Être force de propositions sur les optimisations de traitement Rédaction de la documentation (spécifications techniques), recettes Gestion du code source via Microsoft Devops et déploiement CI/CD Préparation des livrables pour les mises en production
Mission freelance
Data BI Engineer (GCP / Power BI)
STHREE SAS pour COMPUTER FUTURES
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
6 mois
400-450 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Bonjour, Je suis à la recherche d’un Data BI Engineer (GCP / Power BI) : Missions principales : Concevoir, développer et maintenir les couches sémantiques sur GCP (BigQuery) Mettre en œuvre les transformations de données à l’aide de dbt et Composer Optimiser les performances, la qualité et la fiabilité des pipelines de données Documenter les modèles de données et les flux Concevoir et produire des rapports et tableaux de bord Power BI Travailler en étroite collaboration avec les métiers pour comprendre et formaliser les besoins Garantir la cohérence des indicateurs et la bonne exploitation des données Suivre les jalons projets et contribuer à l’optimisation de la livraison des solutions Travailler sous la supervision d’un référent d’équipe Faire preuve de proactivité, d’autonomie et de dynamisme dans les sujets confiés Participer aux rituels Agile (sprints, reviews, planning, etc.) Mettre en œuvre et exécuter les tests (Jira Xray) Contribuer à l’amélioration continue des pratiques Data & BI Assurer la traçabilité et la documentation dans les outils projet
Mission freelance
Data Analyst Power BI
Groupe Aptenia
Publiée le
Azure
Microsoft Power BI
Python
8 mois
400 €
Strasbourg, Grand Est
🔍 Nous recherchons un Data Analyst Power BI pour renforcer une équipe Data dans un contexte industriel international 🎯 Vos missions principales ✅ Concevoir et développer des dashboards Power BI pour les métiers (reporting, analyse) ✅ Interagir avec les équipes business pour comprendre et traduire les besoins ✅ Contribuer à la valorisation des données dans un environnement Azure / Databricks ✅ Collaborer avec les équipes Data Engineering en France et en Allemagne 🧩 Contexte Environnement industriel Interaction directe avec le siège en Allemagne Enjeux Data à l’échelle européenne et internationale Volonté de renforcer l’expertise Data côté France
Offre d'emploi
Data Scientist / Machine Learning Engineer – IA & Data Innovation
AVA2I
Publiée le
Data science
1 an
Île-de-France, France
Au sein d’une direction dédiée à la couverture clients et à l’investissement, vous rejoignez une équipe en charge de la performance commerciale et de l’optimisation de la relation client . L’objectif est de maximiser la valeur des portefeuilles clients en combinant : analyse stratégique allocation des ressources accompagnement opérationnel des équipes commerciales Dans ce cadre, l’équipe Data & Innovation renforce ses capacités pour mettre la Data et l’Intelligence Artificielle au service du business .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Offre fictifs et offre non sérieuses
- Retour d'expérience démission-reconversion
- Vue CV
5039 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois