Find your next tech and IT Job or contract BI

Job Vacancy
PMO Transversal
Mission : Assurer la coordination, le suivi et le pilotage opérationnel de plusieurs projets, en appui aux chefs de projet scientifiques. Le PMO garantit la rigueur méthodologique, la visibilité sur l’avancement, la gestion des risques et la qualité documentaire. Principales responsabilités : Organisation et gouvernance projet : planning, rôles, routines, circuits de validation Suivi & pilotage : tableaux de bord, indicateurs, reporting consolidé Gestion des risques & qualité : identification, suivi et plans d’action Suivi budgétaire et ressources : charges, prévisionnel, consommé Documentation & traçabilité : comptes rendus, livrables, archivage Soutien aux chefs de projet : coordination, priorisation, communication interprojets

Contractor job
Business Analyst Data H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Business Analyst Data H/F à Paris, France. Les missions attendues par le Business Analyst Data H/F : En tant que Business Analyst, le consultant aura pour missions: - Participer à la migration des données de l'infocentre vers le datalake - Modéliser les données à ingérer qui seront également utilisées sous forme de dashboard Power Bi - Spécifier les ingestions de données et les besoins en dashboard exprimés par le métier - Tester les ingestions de données et les dashboard - Si vous êtes formé vous pourrez également concevoir et mettre en place des dashboard PowerBi en prenant en compte la user expérience - Suivre la qualité de notre production - Créer et maintenir des relations de confiance avec nos métiers.

Job Vacancy
Data Architect
Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps

Contractor job
Tech Lead Data
Multinationale iconique sur son marché, cette entreprise est un véritable tremplin dans votre carrière. Sens du travail et innovation permanente vous trouverez l'excellence à tout les étages. Entité : Equipementier Site : Clermont-Ferrand, 3 j sur site client obligatoire par semaine ou 1 semaine sur 2 sur site au choix Prix d’achat max : 520 €HT Date de démarrage : asap Langue parlée : Français / Anglais Durée mission : 14 mois (fin 17/09/2026) Mission : Tech lead data en binôme. Nombre d’années d’expérience : min 6 ans Profil : Tech Lead Data

Job Vacancy
Tech Lead DATA - PUY DE DOME
Pour un gros client industriel nous cherchons, un Tech Lead Data. Il devra maitriser Azure Data Bricks, et avoir de bonnes connaissances sur Power BI. En terme de langages, Python et SQL sont indispensables. Il devra comprendre l'anglais technique au minimum. Mission sur Clermont-Ferrand, démarrage dès que possible, 2 jours de télétravail possibles par semaine. Compétences transverses Niveau d'expérience : 3 à 5 ans minimum Compétences : Azure Data Bricks ; Power BI ; Python ; SQL Langues : Anglais requis Profil : Tech Lead Data ou Ingénieur Data expérimenté Démarrage de mission : ASAP Durée de mission : Longue durée Télétravail : Partiel (2 j par semaine)

Contractor job
Testeur QA Data
Testeur confirmé avec des compétences de Data Analyste En tant que QA Data, vous ferez partie du pôle Qualité Data sera d'assurer la préparation, l'exécution et le suivi de la recette technico fonctionnelle tout en contribuant à l'amélioration de la qualité de données. Participer aux ateliers/rituels agiles Réaliser la stratégie de test Identifier et réceptionner les environnements de test Analyser et évaluer les cas d'usage/User Story Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données Exécuter les cas de tests Créer et suivre les anomalies avec les différentes parties prenantes Maintien du référentiel de test Réaliser le PV de recette Une expérience/compétence dans le domaine de la Data est nécéssaire Vous serez amené à tester : collecte et ingestion des données vérifications de la conformité et cohérence des données dans les différentes zones (brute/raffinée/capitalisation/Factorisation) vérifications des règles de gestion des zones capitalisation et factorisation Vérification de la restitution des données dans les reportings Profil : De formation supérieure en informatique, vous avez une expérience minimum de 3/4 ans sur un rôle de QA orienté Data ou BI. Un profil technico fonctionnel est demandé pour traiter les sujets d'ingestion des données, les tests d'API via Postman, les tests d'intégration 2 à 2 et les tests de bout en bout. Compétences techniques SQL - Confirmé - Impératif Azure event hub - Confirmé - Important Postman - Confirmé - Important" Méthodes & outils nécéssaires Outils de gestion des tests/anomalies : Jira , Xray . Chaînes CI/CD : Microsoft Azure . Plateforme : Databricks . Tests API : Postman . Restitution : Power BI . Profil attendu : technico-fonctionnel , à l’aise sur la collecte et ingestion de données, tests de flux et tests de surface en production.
Job Vacancy
Data Engineer Azure Data Factory
Intitulé du poste : Data Engineer Azure Contexte du poste Au sein du Centre de Compétences Data, le Data Engineer participe activement aux différents projets de transformation digitale du groupe. Il conçoit, développe et déploie des solutions data et reporting permettant aux utilisateurs métiers d’analyser efficacement leurs activités à travers des tableaux de bord et indicateurs de performance. Missions principales Participer à la conception et à la mise en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts, Cubes). Concevoir et développer des processus ETL/ELT performants et automatisés avec Azure Data Factory , SQL Server Integration Services et Azure SQL Database . Garantir la qualité, la disponibilité et la performance des données. Modéliser les données (dimensionnelles et relationnelles) selon les besoins métiers. Maintenir en conditions opérationnelles les flux ETL et les environnements de données. Participer à l’industrialisation et à l’automatisation des pipelines via CI/CD Azure DevOps . Collaborer étroitement avec les équipes DevOps , Product , Design , Data et Management pour assurer la cohérence technique et fonctionnelle des solutions. Documenter les réalisations techniques, rédiger les spécifications et enrichir le catalogue de composants réutilisables. Fournir un support technique et fonctionnel aux utilisateurs finaux. Responsabilités complémentaires Réaliser des études de faisabilité et des cadrages techniques. Optimiser les performances des requêtes SQL, DAX et MDX. Mettre en œuvre la sécurité des données (Row Level Security sur toute la chaîne). Gérer la supervision, le debugging et le monitoring des flux BI. Contribuer à l’amélioration continue et à la standardisation des pratiques Data au sein du Centre de compétences Data. Compétences techniques requises Langages / Outils : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Environnements : GitLab / Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning Profil recherché Diplôme Bac+5 (Master) en Informatique , Statistiques ou Mathématiques appliquées . Expérience significative en développement et maintenance de solutions BI/Data sur environnement Microsoft Azure . Maîtrise des concepts de Data Warehouse et de modélisation dimensionnelle. Excellente capacité d’analyse et rigueur technique. Aisance relationnelle, sens du travail en équipe et esprit collaboratif. Niveau d’anglais professionnel (écrit et oral). Goût pour la transformation digitale et l’innovation. Qualités attendues Sens du service et orientation client. Capacité à gérer plusieurs interfaces dans un contexte international. Esprit d’initiative et autonomie. Curiosité technologique et volonté d’amélioration continue. Outils et technologies principales Azure Data Factory – Azure SQL Database – Azure Analysis Services – Power BI – ADLS Gen2 – GitLab – Azure DevOps – Visual Studio – SSMS – DAX Studio – Tabular Editor

Job Vacancy
Consultant MOA (ALM / Trésorerie / Liquidité / Data) (H/F)
Dans le cadre de la maintenance évolutive de solutions dédiées au pilotage financier, à l’ALM et à la trésorerie de notre client Bancaire , vous interviendrez sur les évolutions sur des applications stratégiques (ALM, gestion de liquidité, suivi de trésorerie). La mission s’inscrit au sein d’une direction des systèmes d’information dédiée à la gestion des actifs financiers, des flux de trésorerie et du pilotage bilan. Les applicatifs concernés sont des progiciels du marché (ex. RiskPro, QRM) et des solutions de reporting/data visualisation (Alteryx, Tableau, Business Objects). Maintenance évolutive et corrective des applications (chaîne complète : alimentation des données, moteur/progiciel, restitutions). Support de production (suivi des arrêtés mensuels/quotidiens, assistance aux métiers et aux équipes SI). Pilotage et coordination (participation aux comités, suivi des sujets confiés, traitement des évolutions réglementaires). Projets d’évolution (montée de version, migration technique). Production de livrables (spécifications, cahiers de recette, bilans de tests, comptes rendus). Transfert de compétences et partage de connaissances auprès des équipes internes.

Contractor job
Data Analyst Expert - Qlik Sense & PowerBI
CONTEXTE Experience : 8 ans et plus Métiers Fonctions : Data Management :Data Analyst Spécialités technologiques : Data Visualisation, Restitution Contexte : Le Data Analyst aura pour mission de structurer les fondations méthodologiques et techniques nécessaires à la diffusion d’indicateurs fiables et exploitables pour une direction métier. Il aura pour mission de centraliser les données issues de multiples sources, d’en assurer la transformation, puis d’industrialiser leur traitement au travers de pipelines performants, pour les visualiser dans Power BI, Qlik Sense, etc. MISSIONS Le Data Analyst aura potentiellement la charge de plusieurs domaines de données au sein du département. En lien étroit avec l’architecte/expert data et les métiers, il sera responsable de la chaîne complète de traitement et de valorisation des données, depuis la compréhension du besoin jusqu’à la mise en production et la maintenance des applications décisionnelles. Il jouera un rôle clé dans cette dynamique, en prenant en charge la structuration des flux, l’optimisation des performances. Il devra allier expertise technique et compréhension des enjeux métiers pour garantir la qualité, la cohérence et la disponibilité des données. Appuyé par les standards et les outils mis à disposition par les équipes data transverses, il travaillera en forte autonomie sur les projets qui lui seront confiés. Activités : - Recueil et formalisation des besoins métier - Animer des ateliers avec les utilisateurs métiers pour comprendre leurs enjeux et besoins en reporting, datavisualisation et indicateurs. - Rédiger des spécifications fonctionnelles et techniques (cahiers des charges, dictionnaires de données, définitions d’indicateurs). - Identifier et challenger les sources de données disponibles. - Prototypage et maquettes - Concevoir des maquettes d’écrans (wireframes, prototypes Power BI ou Qlik Sense) pour validation métier. - Proposer des choix de visualisation pertinents en fonction des usages (tableaux de bord stratégiques, opérationnels, analytiques). - Conception et modélisation des données - Définir et mettre en oeuvre la modélisation back-end : datamarts, hubs data, modèles dimensionnels (étoile,flocon) ou data vault. - Écrire et optimiser les requêtes SQL ou pipelines (via Dataiku ou autres outils ETL/ELT) pour alimenter les modèles. - Mettre en place des pré-calculs ou agrégations pour optimiser les performances. - Développement des applications décisionnelles - Développer les dashboards et rapports dans Power BI et/ou Qlik Sense en respectant les standards UX/UI et les bonnes pratiques data. - Paramétrer la sécurité des données : ségrégation de données (row-level security), restrictions d.accès en conformité avec la politique RGPD. - Garantir la performance et la fiabilité des restitutions. - Tests et recette - Concevoir et exécuter les tests unitaires et d’intégration. - Préparer et accompagner la recette métier. - Corriger les anomalies détectées. - Maintenance évolutive et corrective - Faire évoluer les applications existantes selon les nouveaux besoins ou changements réglementaires. - Surveiller la qualité des données et les performances. - Rédiger et maintenir la documentation technique et fonctionnelle. - Collaboration et amélioration continue - Travailler en étroite collaboration avec l’architecte data, les autres data analysts et l.équipe métier. - Participer aux rituels d’équipe. Expertise souhaitée 8 ans d'expérience minimum sur des fonctions similaires de Data Analyst Maitrise des outils Qlik Sense et idéalement Power BI Excellente maitrise de Dataset (conception & extraction de données) Valorisation des données Big Data En capacité d'accompagner et de challenger les métiers

Job Vacancy
Data Engineer SQL Server (T-SQL)
Dans le cadre d’un renforcement d’équipe Data notre client recherche un Data Engineer confirmé spécialisé sur SQL Server . Vous serez responsable de : Maintenance évolutive et corrective des flux de données Développement SQL : modélisation, transformation de données, calculs d’indicateurs Gestion des flux de données : fichiers plats, XML, API REST, web services Ordonnancement des traitements via Control-M Optimisation de requêtes SQL et modèles de données Rédaction de documentations techniques Réalisation de tests unitaires et participation aux recettes Support utilisateur et gestion des incidents Participation active à la méthodologie Agile (Kanban) : Daily, poker planning, rétrospectives

Contractor job
Expert Power Platform - Mission ASAP d'audit & structuration - 92
🚀 𝗘𝘅𝗽𝗲𝗿𝘁 𝗣𝗼𝘄𝗲𝗿 𝗣𝗹𝗮𝘁𝗳𝗼𝗿𝗺 – 𝗠𝗶𝘀𝘀𝗶𝗼𝗻 𝗔𝗦𝗔𝗣 𝗱'𝗔𝘂𝗱𝗶𝘁 & 𝗦𝘁𝗿𝘂𝗰𝘁𝘂𝗿𝗮𝘁𝗶𝗼𝗻 - 𝟵𝟮 🚀 📍 𝟵𝟮 ⏳ 𝗔𝗦𝗔𝗣 - 𝗠𝗶 𝘁𝗲𝗺𝗽𝘀 𝘀𝘂𝗿 𝟰 𝗺𝗼𝗶𝘀. 🌍 𝗙𝗿𝗮𝗻𝗰̧𝗮𝗶𝘀 & 𝗔𝗻𝗴𝗹𝗮𝗶𝘀 𝗰𝗼𝘂𝗿𝗮𝗻𝘁 🎯 𝗟𝗲 𝗽𝗿𝗼𝗷𝗲𝘁 Notre client recherche un Expert Power Platform pour une mission stratégique et de court terme. Objectif => auditer les usages actuels de la Power Platform Factory, identifier les risques et écarts, puis proposer un plan structuré pour professionnaliser les pratiques et sécuriser les usages. Vous interviendrez sur => L’audit approfondi des environnements, pratiques et usages existants La définition d’un plan d’action structurant aligné sur les standards IT globaux L’encadrement des dev et la mise en place de bonnes pratiques Le cadrage fonctionnel avec les métiers et la priorisation des cas d’usage La contribution à la gouvernance et la sécurisation des solutions Power Platform 🛠️ 𝗖𝗼𝗺𝗽𝗲́𝘁𝗲𝗻𝗰𝗲𝘀 𝗮𝘁𝘁𝗲𝗻𝗱𝘂𝗲𝘀 Expertise Microsoft Power Platform de 6 ans minimum (Apps, Automate, BI, Pages, Dataverse) Solide expérience en audit et gouvernance IT Maîtrise des processus ITSM et bonnes pratiques (ITIL apprécié) Forte expérience des environnements Microsoft 365 Excellente capacité d’analyse, de structuration et de communication On en parle ? #freelance #microsoft #powerplatform #powerapss #m365

Contractor job
Tech Lead Microsoft 365
Missions Dans le cadre de la transformation continue de son environnement Digital Workplace, un groupe international souhaite s’attacher les services d’un Tech Lead M365 expérimenté. Cette mission stratégique s’inscrit dans un contexte de projets de transformation complexes (M&A, carve-in/out) nécessitant rigueur, industrialisation, et automatisation. Vos tâches seront les suivantes : ● Accompagner les projets de transformation en apportant une expertise technique M365 (architecture, sécurité, intégration). ● Produire les livrables associés : fiches d’architecture, guides d’intégration, matrices de droits. ● Construire et maintenir les tableaux de bord de suivi (Power BI, Excel). ● Documenter les procédures d’exploitation standardisées. ● Développer et maintenir les scripts d’automatisation. ● Collaborer avec les équipes architecture, cybersécurité, projet, support et partenaires industriels (run offshore). ● Participer à l’introduction de solutions innovantes type Copilot/IA générative.

Contractor job
Data Analyst GCP (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Analyst GCP (H/F) à Hauts-de-France, France. Les missions attendues par le Data Analyst GCP (H/F) : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data - Réaliser les modèles sémantiques Power BI répondant aux besoins métiers

Contractor job
Chief Information Security Officer (CISO) H/F
Mission principale Piloter la stratégie de sécurité des systèmes d’information du client, garantir la conformité réglementaire (notamment RGPD), et assurer la protection des données et des actifs numériques de l’entreprise. Responsabilités clés Définir et mettre en œuvre la politique de sécurité informatique (SI, réseau, cloud, endpoints). Superviser les audits de sécurité, les tests d’intrusion et les plans de remédiation. Assurer la conformité aux réglementations en vigueur (RGPD, ISO 27001, etc.). Gérer les incidents de sécurité et piloter les plans de continuité et de reprise d’activité. Encadrer les pratiques de confidentialité, de déontologie et de gouvernance des données. Collaborer avec les équipes IT, juridiques et métiers pour intégrer la sécurité dans les projets. Sensibiliser les collaborateurs via des programmes de formation à la cybersécurité. Gérer les licences des outils de sécurité et les relations avec les prestataires.

Contractor job
DevOps – Microsoft Fabric / Azure
Dans un environnement en pleine transformation digitale, vous rejoindrez une équipe dédiée à la construction, à l’exploitation et à l’évolution d’une plateforme Data & Analytics à grande échelle. Cette plateforme constitue un socle stratégique pour la valorisation, la gouvernance et la sécurité des données au sein du groupe. Nous recherchons un(e) DataOps Engineer spécialisé(e) dans l’écosystème Microsoft (Azure / Fabric / Power BI) , capable d’accompagner les équipes dans la mise en place et l’industrialisation des solutions Data. ⚙️ Missions principales En tant que membre de la squad Data & Analytics Platform, vous participerez aux activités suivantes : Coordination & animation : Animer les ateliers techniques avec Microsoft et les parties prenantes internes. Rédiger les comptes rendus et assurer le suivi des actions. Challenger les propositions techniques de l’éditeur et garantir la cohérence des solutions. DataOps / DevOps : Concevoir, maintenir et améliorer les chaînes de déploiement CI/CD pour les composants Data & Analytics. Automatiser les processus de déploiement, de supervision et de gouvernance. Participer à la sécurisation et à la surveillance de la plateforme. Administration de la plateforme Microsoft Fabric : Gérer les rôles d’administration : Fabric Administrator, Capacity Administrator, Domain Administrator, Workspace Administrator. Assurer la gestion des droits , le suivi capacitaire et le pilotage budgétaire des ressources. Administrer le portail Power BI et accompagner les utilisateurs dans les bonnes pratiques. Documentation & accompagnement : Enrichir la documentation technique et fonctionnelle à destination des utilisateurs. Diffuser les bonnes pratiques DataOps au sein de l’équipe.

Job Vacancy
Expert Power Platform – (Secteur Finance) (H/F) Île-de-France, France
Contexte du poste Notre client, un acteur majeur du secteur de la finance, recherche un Expert / Administrateur Power Platform pour renforcer son équipe et accompagner l'administration et le développement des solutions low-code / no-code. 🔧 Missions principales Administrer et sécuriser la Power Platform : gestion des environnements, des droits d’accès, et mise en œuvre des politiques de prévention des pertes de données (DLP) Déployer, configurer et adapter la gouvernance via le Kit Centre d’Excellence (CoE) et outils complémentaires Assurer la maintenance et l’évolution des outils de gouvernance (montées de version, adaptations réglementaires) Animer et faire respecter le cadre de référence Citizen Dev / Pro Dev en vigueur
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country