Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 245 résultats.
CDI
Freelance

Offre d'emploi
Chef de projet Technique - Data Azure + Databricks + Power BI (H/F)

Publiée le
Azure
Databricks
Microsoft Power BI

1 an
Paris, France
Télétravail partiel
Mission longue durée – Paris / Aix-en-Provence / Lausanne (Suisse) Secteur d’activité : Horlogerie de luxe Missions Pilotage complet du projet : planning, jalons, risques, reporting, animation des comités. Suivi financier : budget, consommés, prévisionnels, arbitrages, revues internes/client. Coordination et validation des livrables techniques et fonctionnels. Leadership technique sur Azure (IAM, architecture cloud), Databricks (pipelines, optimisation, ingestion), Power BI (modélisation, datasets, gouvernance). Gestion du relationnel client multi-acteurs, communication claire, gestion des attentes et décisions. Coordination d’une équipe pluridisciplinaire et diffusion des bonnes pratiques data & cloud . Compétences techniques Maîtrise de Microsoft Azure (Data Lake, Data Factory, SQL/Synapse, DevOps). Expertise Databricks (Spark, optimisation, CI/CD, ingestion/transformation). Très bon niveau Power BI (DAX, modélisation, datasets, gouvernance). Bonne compréhension des architectures data modernes et environnements CI/CD. Compétences gestion & relationnel Méthodologies Agile et cycle en V. Pilotage planning/risques/livrables, gestion budgétaire avancée. Leadership, communication, diplomatie, gestion de situations sensibles. Capacité à décider rapidement et à fédérer une équipe.
Freelance

Mission freelance
Architecte Data

Publiée le
Architecture
Azure

4 mois
650-680 €
Rennes, Bretagne
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Architecte Data(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de l'industrie. Description 🎯 Contexte de la mission Dans le cadre d’un projet stratégique à forte visibilité, une nouvelle Data Platform doit être conçue sur une infrastructure Kubernetes récemment livrée. 🧩 Missions principales & Rôle Le Data Architecte interviendra sur les activités suivantes : 🏗️ Définition de l’architecture cible de la Data Platform 🗂️ Segmentation et ségrégation des stockages (temps réel, analytique, applicatif) 🐳 Déploiement et orchestration de conteneurs dans un environnement Kubernetes 🔒 Mise en place du socle Data incluant : sécurité, qualité, monitoring, CI/CD Data 🧪 Accompagnement sur les choix technologiques , avec priorité aux solutions open source 🤝 Co-construction avec les équipes métiers , utilisateurs d’outils no-code / low-code 🔍 Participation à la définition des patterns d’architecture et bonnes pratiques 🎯 Objectifs de la mission Mettre en place une architecture Data scalable et sécurisée Assurer la cohérence technologique entre l’infra Kubernetes, les composants Data et les besoins métiers Définir les patterns, standards et bonnes pratiques de la future plateforme Préparer l’intégration des premiers pipelines et cas d’usage métiers
CDD

Offre d'emploi
INGENIEUR CLOUD H/F

Publiée le
Azure
Azure DevOps
Databricks

12 mois
50k-65k €
Île-de-France, France
Télétravail partiel
Au sein de la Direction Digital et Data, vous rejoindrez le Data Lab , en charge des projets BI et Data pour l’ensemble des enseignes et métiers du Groupe En tant qu’ Ingénieur DevOps H/F , vous jouerez un rôle clé dans le déploiement, la sécurisation et l’industrialisation des projets Data du Groupe, au sein d’une équipe d’une dizaine de collaborateurs évoluant en méthodologie Agile. La plateforme Cloud principale est Microsoft Azure . Déploiement & Infrastructure Construire et déployer des infrastructures Cloud Azure adaptées aux besoins Data. Configurer et industrialiser les architectures cibles ( CI/CD ). Participer aux phases de validation technique lors des mises en production. Mettre en place des outils de surveillance pour assurer la haute disponibilité et la résilience des environnements. Sécurité & Gouvernance Organiser des ateliers avec les équipes internes pour répondre aux exigences de sécurité du Groupe. Suivre les plans d’action liés aux audits sécurité et proposer des solutions adaptées. Contribuer à la sécurisation des applications Web, APIs et services Azure . Maintenance & Amélioration Continue Assurer le maintien en conditions opérationnelles (MCO) des infrastructures virtualisées. Diagnostiquer incidents / dysfonctionnements et garantir la fiabilité des solutions déployées. Participer à l’amélioration continue des chaînes CI/CD . Veiller à la sauvegarde des données , à la gestion des droits d’accès et à la conformité des environnements.
Freelance
CDI

Offre d'emploi
Expert TECHNIQUE Cyber & DevSecOps – IA / GenAI & Azure (N3)

Publiée le
Azure
Azure AI Foundry
DevSecOps

3 ans
Fontenay-sous-Bois, Île-de-France
Télétravail partiel
Nous recherchons un expert technique cyber & DevSecOps spécialisé IA / GenAI pour renforcer une équipe sécurité déjà structurée (GRC + pilotage en place). Mission orientée mise en œuvre technique , pas du pilotage. 🎯 Votre rôle Intégrer l’équipe sécurité et prendre en charge la sécurisation avancée de la stack Azure IA / GenAI : Azure AI, Cognitive Services, Azure Machine Learning, Azure OpenAI M365, Power Platform, Fabric Intégrations data (Snowflake…) Vous intervenez comme référent technique auprès des devs, data engineers & data scientists. 🔧 Missions techniques Design & déploiement des contrôles de sécurité Azure / IA RBAC, Conditional Access, MFA, PIM Réseau, identité, isolation des environnements Sécurisation des services IA et des données exposées DevSecOps – CI/CD sécurisés Scans, policy-as-code, sécurité IaC (Terraform / Bicep) Configuration avancée des solutions Microsoft Security : Sentinel, Defender for Cloud, Purview Revue de code, pipelines, IaC Mise en place d’automatisations : PowerShell / Python 🧠 Expertise IA / GenAI attendue Capacité à challenger, corriger, sécuriser des implémentations GenAI : prompt injection data/model poisoning fuite de données risques agentiques / escalade via LLM bonnes pratiques de gouvernance et isolation des données 📦 Livrables Blueprints & architectures de sécurité GenAI sur Azure Configurations sécurisées + règles Sentinel / Defender / Purview Analyses de risques & mesures de mitigation Reporting technique : posture, vulnérabilités, remédiations
Freelance

Mission freelance
Ingénieur DevOps Cloud Azure – Confirmé / Expert (Data & BI)

Publiée le
Architecture ARM
Azure
Azure DevOps

6 mois
Île-de-France, France
Description du poste : Intégré au Data Lab de la Direction Digital & Data d'un grand groupe Retail, vous pilotez l'architecture et l'industrialisation des projets BI et Data sur le Cloud Microsoft Azure. Au sein d'une équipe Agile d'une dizaine de personnes, vous assurez la liaison entre les équipes techniques (Dev, Sécurité, Ops) et projets. Vos missions s’articulent autour de trois axes majeurs : Construction et Déploiement : Vous concevez et dimensionnez les infrastructures Cloud Public (Azure). Vous déployez les architectures cibles pour les projets Big Data (DataLake, EventHub, Databricks). Industrialisation (DevOps) : Vous garantissez l'approche "Infrastructure as Code" (IaC) via ARM et YAML. Vous configurez et maintenez les pipelines CI/CD (Azure DevOps, Git) pour automatiser les déploiements. Exploitation et Sécurité : Vous mettez en place la supervision et assurez la haute disponibilité des services. Vous gérez le Maintien en Condition Opérationnelle (MCO), les sauvegardes, les accès et la sécurité, tout en participant aux validations techniques et aux audits.
Freelance

Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS

Publiée le
Azure
BI
DevOps

24 mois
325-650 €
La Défense, Île-de-France
Télétravail partiel
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Freelance
CDI

Offre d'emploi
INGENIEUR BACK END DATA

Publiée le
Azure
Docker
Gitlab

2 ans
40k-45k €
360-550 €
Paris, France
Télétravail partiel
Bonjour 😊, Pour le compte de notre client, nous recherchons un ingénieur back end data. Dans le cadre de la prestation, le prestataire devra participer à la réalisation, sans que cela ne soit exhaustif, des tâches et livrables suivants :  Etudier l'existant sur le périmètre data (outils de collecte, d'analyse et de restitution de données, outils de facturations, SharePoint, Power BI…)  Définir et suivre la roadmap de mise en place des solutions répondant aux cas d’usages remontés : o Définir , prioriser et réaliser les développements o Mettre en place l'architecture logicielle et les flux de données nécessaires au fonctionnement présent et futur des solutions. o Développer les restitutions (rapports, applications, tableaux de bord) consommant les données du socle data et permettant de répondre aux cas d’usages identifiés dans le respect des normes client.  Assurer et valider le bon fonctionnement des solutions au cours de tests réguliers, VABF et VSR Le prestataire devra produire un livrable mensuel de suivi d’activité reprenant les points listés plus avant. Pour les livrables projet, le prestataire devra produire les livrables selon la roadmap définie en début de projet, avec une nécessaire adaptabilité aux pics de charge liés à l’évolutivité du planning. La fourniture des livrables et le respect du planning sont soumis à un engagement de résultat avec des pénalités applicables dès le premier jour de retard tel que précisé dans les documents de référence. Compétences attendues  Rigueur et méthode  Autonomie, bon relationnel et pédagogie  Bonne communication, capacité à vulgariser et à présenter ses travaux de manière synthétique  Capacité à écouter et à travailler en équipe  Langages & Technologies : o PHP o Symphony o Gitlab o Docker o Administration SQL (PostgreSQL), o Langages front-end (JavaScript, Jquery, Bootstrap, Twig) o Cloud Azure o API o Sécurité et gestion des accès.
Freelance

Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France

Publiée le
Big Data
Cloud
Infrastructure

6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Freelance
CDI

Offre d'emploi
DATA ENGINEER SPARK / SCALA / PYSPARK / DATABRICKS / AZURE

Publiée le
Apache Spark
Azure
Databricks

3 ans
36k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour 👽, Pour le compte de notre client, nous recherchons un data engineer Spark / Scala / Pyspark / Databricks / Azure. Missions principales : Participer au développement des User Stories (US) et réalisation des tests associés. Produire et maintenir la documentation projet : mapping des données, modélisation des pipelines, documents d’exploitation. Mettre en place et maintenir le CI/CD sur l’usine logicielle. Assurer la mise en place du monitoring . Collaborer étroitement avec l’équipe projet ; pas de responsabilité de production individuelle. Travailler dans un environnement agile avec priorisation et gestion multi-projets. Compétences techniques indispensables : Maîtrise de Scala et Spark (batch principalement). Optimisation des jobs Spark et traitement de volumétries importantes / complexes . Bonnes pratiques de développement Scala et build Maven. Expérience en environnement cloud , idéalement Azure . Compétences techniques appréciées : Écosystème Databricks Azure Functions et Azure Data Factory Monitoring sous Datadog Déploiement avec Ansible Compétences transverses : Aisance relationnelle et esprit d’équipe Autonomie, rigueur et esprit d’analyse Capacité de synthèse et force de proposition Sens des priorités et respect des délais Appétence client et compréhension métier / fonctionnelle Mentoring et partage de connaissances
Freelance

Mission freelance
Data Analyst Informatica

Publiée le
Azure
ETL (Extract-transform-load)
Informatica

1 an
300-460 €
Strasbourg, Grand Est
Télétravail partiel
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
Freelance

Mission freelance
Data Engineer

Publiée le
Azure Data Factory
BI
Databricks

12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
Télétravail partiel
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance
CDI

Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data

Publiée le
Cloud
Data analysis
Microsoft Power BI

3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Freelance
CDI

Offre d'emploi
Observability Expert

Publiée le
Azure
Grafana

3 ans
40k-65k €
400-660 €
Paris, France
Télétravail partiel
I. Contexte : Notre département IT souhaite mettre en place et animer une Communauté de Pratique dédiée à l’observabilité et à la supervision de nos applications métiers. En tant qu’expert Observabilité/Supervision, vous serez chargé de définir et mettre en œuvre une stratégie d’observabilité complète (monitoring, logs, alerting, tracing) afin de garantir une visibilité en temps réel sur l’état de santé, les performances et le comportement de nos applications. Ces solutions permettront une détection proactive des incidents, un diagnostic rapide des problèmes et assureront la disponibilité de nos services critiques. L’environnement applicatif est hybride, composé de solutions cloud (D365, Power Apps, services Azure, Data product Fabric) et d’applications hébergées on-premise sur serveurs Windows (sites web, serveurs IIS, etc.). II. Missions : · Référent technique pour contribuer à la construction et à l’implémentation des composants de supervision et des pipelines d’observabilité · Fournir une expertise et, si nécessaire, participer à la conception, l’intégration et le déploiement des solutions de supervision (dashboards, collecte de logs, tracing, détection d’anomalies basée sur l’IA, etc.) · Collaborer avec les équipes de développement, d’exploitation et de sécurité pour intégrer les outils et pratiques d’observabilité dans les pipelines CI/CD · Apporter son expertise lors des incidents et des analyses de causes racines. · Identifier les besoins spécifiques de chaque équipe et définir des plans d’accompagnement. · Développer et maintenir des tableaux de bord et rapports pour visualiser les performances applicatives · Analyser et interpréter les métriques pour identifier les tendances et détecter les problèmes de manière proactive · Définir la gouvernance, les règles de fonctionnement et les objectifs de la Communauté. · Mettre en place des outils collaboratifs (wiki, canaux Teams) · Organiser et animer des sessions de la communauté · Favoriser les échanges inter-équipes et le partage de connaissances · Co-construire des standards techniques et des guidelines avec les équipes · Rédiger des guides de bonnes pratiques et de la documentation technique · Assurer une veille active sur les technologies et pratiques d’observabilité · Évaluer et tester de nouveaux outils du marché · Proposer des POC et des expérimentations innovantes.
Freelance
CDI
CDD

Offre d'emploi
Architecte calcul/Stockage et plateformes DATA

Publiée le
Architecture
Cloud

12 mois
40k-45k €
400-550 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Missions principales Architecture et trajectoire technologique • Concevoir des architectures de calcul, stockage et plateformes DATA (On-premise, Cloud ou hybrides). • Élaborer la cible d’architecture DATA : catalogage, gouvernance, sécurité, interopérabilité. • Formaliser les patterns d’architecture, standards et bonnes pratiques. 1. Collecte et formalisation des besoins métiers et techniques • Animer des ateliers avec les directions métiers et laboratoires pour recueillir et qualifier les besoins. • Réaliser des cartographies techniques et fonctionnelles. • Identifier les contraintes et les gains attendus. 2. Analyse et ingénierie des systèmes existants • Réaliser du reverse engineering sur les systèmes existants, y compris non gérés par la DTI. • Identifier les redondances, obsolescences et pistes d’optimisation. 3. Proposition et priorisation de projets • Construire un plan d’action priorisé des projets techniques. • Appuyer la priorisation stratégique en lien avec la gouvernance DATA et le SDSI 2030 (qui reste à construire). 4. Pilotage et accompagnement technique des projets • Coordonner les travaux techniques, tests de performance et intégration. • Contribuer directement à la mise en œuvre technique et au transfert RUN. 5. Contribution à la gouvernance DATA • Participer aux instances du Programme DATA et du SDSI. • Contribuer à la définition des standards techniques et à la documentation des services. 4. Missions secondaires • Participation à des projets de plateformes mutualisées (MFT, ETL, forges logicielles, calcul). • Étude et éventuel déploiement de solutions cloud ou hybrides selon arbitrages stratégiques. • Veille technologique sur les infrastructures et technologies data. • Capitalisation documentaire et accompagnement à la montée en compétence des équipes. 5. Compétences requises 5.1 Compétences techniques • Architecture des systèmes de stockage : NAS, SAN, Object Storage, archivage. • Environnements de calcul : clusters Linux/Windows, HPC, Slurm, conteneurisation (Docker, Singularity), GPU, orchestration.Systèmes et virtualisation : VMware, Hyper-V. • Réseaux et sécurité : segmentation, performance, supervision, monitoring. • Plateformes DATA/Analytics : architectures DATA, interopérabilité technique, …. • Outils de transfert et d’intégration : MFT, ETL, pipelines CI/CD (GitLab CI, Jenkins). • Cloud et hybridation : connaissance d’Azure, OVHcloud, Scaleway ou équivalents publics. • Outils de supervision et d’observabilité : Grafana, Prometheus. • Documentation technique : rigueur rédactionnelle, utilisation d’outils tels que PlantUML, Mermaid ou Visio. 5.2 Compétences transverses • Gestion de projet technique : planification, suivi, priorisation et reporting. • Capacité d’analyse et d’arbitrage technique, sens de la décision et de la fiabilité opérationnelle. • Aptitude à dialoguer avec des interlocuteurs variés (chercheurs, ingénieurs, équipes métiers, directeurs, CDO, RSSI). • Autonomie, curiosité, rigueur documentaire et esprit de synthèse. • Sens du service public et respect de la confidentialité scientifique.
Freelance

Mission freelance
Consultant BI Senior - SSIS, SSAS Tabular, Azure & .NET

Publiée le

12 mois
500 €
Paris, France
Télétravail partiel
Consultant BI Senior - SSAS Tabular, Azure & .NET (Mission 12 mois) 📍 Localisation : Paris 📅 Démarrage : ASAP (Janvier 2026) 🕒 Durée : 12 mois Contexte : Notre client, acteur majeur de la gestion d'actifs en Europe, mène un projet stratégique de modernisation d'un outil interne de suivi des actifs sous gestion (AUM). Ce projet inclut la migration vers des technologies Microsoft BI avancées et le déploiement sur Azure. Vos responsabilités : Modernisation de l'architecture BI Migration d'un cube SSAS multidimensionnel vers un modèle Tabular Optimisation des modèles et des performances Adaptation et migration des flux SSIS Refonte des rapports SSRS Déploiement complet sur Azure (Analysis Services, SQL Database, Data Factory, Power BI Premium) Améliorations fonctionnelles Développement de nouveaux KPI et indicateurs Intégration de nouvelles sources de données Amélioration des règles de calcul et de la logique métier Mise en place d'un système d'alertes Définition des événements déclencheurs Développement d'un mécanisme d'alertes automatisées (emails, dashboards, notifications) Support opérationnel Support N2/N3 sur l'outil et ses workflows Résolution des incidents et fiabilisation du système Compétences techniques requises : Expertise Microsoft BI : SSAS (Multidimensionnel & Tabular), SSIS, SSRS SQL Server (T-SQL avancé) Développement .NET / C# Azure : Analysis Services, Data Factory, SQL Database, monitoring/alerting Connaissance Power BI Premium Compétences métier : Bonne compréhension de la gestion d'actifs / Asset Management Familiarité avec les métriques AUM, reporting financier, indicateurs commerciaux Soft Skills : Autonomie, proactivité, rigueur Excellentes capacités de communication Esprit analytique et orienté solution Langues : Français & Anglais (niveau professionnel) Conditions particulières : Présence physique : 3 jours/semaine sur site à Paris Méthodologie Agile
245 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous