Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 141 résultats.
Freelance

Mission freelance
Data Engineer Nantes /st

WorldWide People
Publiée le
Python

12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance
CDI

Offre d'emploi
Data Scientist - Multimodal document intelligence

PARTENOR
Publiée le
Agent IA
Deep Learning
IA Générative

1 an
Puteaux, Île-de-France
Dans le cadre d'un renforcement de nos équipes, nous recherchons des Data scientistes sénior pour intervenir de la conception globale d’une plateforme multimodale de compréhension documentaire et d’extraction de données structurées, couvrant l’analyse de mise en page de PDF complexes / pages scannées, l’extraction sémantique, la reconstruction structurelle à la validation de la qualité et l’intégration métier. Vos missions seront : Concevoir et faire évoluer le pipeline d’analyse documentaire multimodale : modélisation de la mise en page/structure, extraction sémantique, alignement cross-modal et reconstruction structurelle Construire et optimiser les mécanismes de collaboration multi-agents : décomposition des tâches, orchestration parallèle/séquentielle, relecture par les pairs et amélioration itérative de la qualité Définir les stratégies de sélection/combinaison/orchestration des modèles (routage dynamique selon le type de document, la structure du contenu et les signaux de qualité) Planifier et exécuter la validation des modèles, l’adaptation au domaine, l’apprentissage continu, l’apprentissage actif et les boucles de rétroaction des données Mettre en place des métriques de bout en bout : précision d’extraction, cohérence structurelle, efficacité de la collaboration des agents, latence, stabilité et coûts
CDI

Offre d'emploi
Administrateur systèmes et réseaux H/F

Experis France
Publiée le

Villeneuve-d'Ascq, Hauts-de-France
Administrateur systèmes et réseaux H/F - Villeneuve-d'Ascq 🎯 Contexte du poste Au sein de l'équipe Infrastructure, vous prenez part à la gestion et à l'exploitation du système d'information couvrant environ 420 centres en France . Vous contribuez également à la réussite de projets IT stratégiques , liés à l'évolution des magasins, du siège et du Datacenter. Vous jouerez un rôle clé dans la fiabilité , la sécurité , et la performance de nos environnements techniques, tout en apportant un support de haut niveau à nos utilisateurs et partenaires internes. 🔧 Missions principales 1. Exploitation & Supervision Administrer les infrastructures systèmes, réseaux et mobiles. Superviser les solutions informatiques et les services critiques du Datacenter. Assurer le support technique Niveaux 1, 2 et 3 selon les besoins. Gérer et maintenir le parc informatique (postes, équipements réseaux…). 2. Gestion de projets IT Vous prenez en charge ou participez à plusieurs projets majeurs : Déploiement de solutions IT (Infra / Réseau / Mobile). Projet SDWAN Fortinet : gestion des ressources, du budget et de la facturation. Mise en place du VLAN partenaire . Ouverture de nouveaux concepts magasins. Déménagement du siège (pilotage des infrastructures). Projet de maillage 4G . Mise en œuvre du PRA/PCA pour le Datacenter. Mise à niveau des procédures IT et des documentations. 3. Relation utilisateurs & partenaires Garantir un haut niveau de satisfaction des équipes internes. Assurer le suivi et la coordination avec les prestataires et partenaires techniques. Contribuer à l'intégration des nouveaux arrivants (formation, transfert de compétences).
CDI

Offre d'emploi
Data Analyst (h/f)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
SQL

Vélizy-Villacoublay, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
DevOps Engineer – Plateforme Data & CI/CD (F/H)

CELAD
Publiée le

1 an
420-460 €
Lyon, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 à 3 jours de télétravail / semaine - Lyon 7ème - Expérience de 5 ans minimum Et si votre prochain défi consistait à industrialiser une plateforme data utilisée à grande échelle dans un grand groupe de l’énergie ? Nous recherchons un DevOps / Intégrateur pour intervenir au cœur d’un environnement technique exigeant, où l’objectif est simple : fiabiliser et automatiser les environnements utilisés par les équipes Data. Concrètement, vous contribuerez à rendre les plateformes plus robustes, plus automatisées et plus faciles à exploiter pour les équipes qui développent et analysent les données. Ce que vous allez faire au quotidien : Votre rôle sera de simplifier et sécuriser la mise en production des applications et des traitements data. - Vous développerez et améliorerez les pipelines de déploiement automatisé pour permettre aux équipes de livrer plus rapidement et plus sereinement leurs applications. - Vous maintiendrez les infrastructures et middlewares Linux afin de garantir la disponibilité des environnements analytiques. - Vous industrialiserez les environnements utilisés par les équipes Data pour les rendre reproductibles, fiables et facilement déployables. - Vous collaborerez régulièrement avec les équipes développement, architecture, sécurité et exploitation pour aligner les solutions avec les standards du SI. - Vous contribuerez aux réflexions autour des évolutions Cloud et On-Premise, notamment pour améliorer la résilience et la performance des plateformes. - Vous documenterez les solutions mises en place afin de faciliter leur exploitation et leur évolution. - Vous participerez aux rituels d’équipe et aux échanges techniques autour de l’amélioration continue des environnements. Votre objectif : garantir des plateformes data fiables, automatisées et résilientes.
CDI

Offre d'emploi
DevOps Engineer – Plateforme Data & CI/CD (F/H)

CELAD
Publiée le

45k-50k €
Lyon, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 à 3 jours de télétravail / semaine - Lyon 7ème - Expérience de 5 ans minimum Et si votre prochain défi consistait à industrialiser une plateforme data utilisée à grande échelle dans un grand groupe de l’énergie ? Nous recherchons un DevOps / Intégrateur pour intervenir au cœur d’un environnement technique exigeant, où l’objectif est simple : fiabiliser et automatiser les environnements utilisés par les équipes Data. Concrètement, vous contribuerez à rendre les plateformes plus robustes, plus automatisées et plus faciles à exploiter pour les équipes qui développent et analysent les données. Ce que vous allez faire au quotidien : Votre rôle sera de simplifier et sécuriser la mise en production des applications et des traitements data. - Vous développerez et améliorerez les pipelines de déploiement automatisé pour permettre aux équipes de livrer plus rapidement et plus sereinement leurs applications. - Vous maintiendrez les infrastructures et middlewares Linux afin de garantir la disponibilité des environnements analytiques. - Vous industrialiserez les environnements utilisés par les équipes Data pour les rendre reproductibles, fiables et facilement déployables. - Vous collaborerez régulièrement avec les équipes développement, architecture, sécurité et exploitation pour aligner les solutions avec les standards du SI. - Vous contribuerez aux réflexions autour des évolutions Cloud et On-Premise, notamment pour améliorer la résilience et la performance des plateformes. - Vous documenterez les solutions mises en place afin de faciliter leur exploitation et leur évolution. - Vous participerez aux rituels d’équipe et aux échanges techniques autour de l’amélioration continue des environnements. Votre objectif : garantir des plateformes data fiables, automatisées et résilientes.
Freelance

Mission freelance
Data Engineer

Codezys
Publiée le
Intelligence artificielle
Python
Snowflake

12 mois
Bordeaux, Nouvelle-Aquitaine
Dans le cadre de notre démarche d'innovation et de renforcement de notre expertise en gestion de données, nous lançons un appel d'offres pour le recrutement d'un(e) Data Engineer intégré(e) à notre Direction des Systèmes d'Information (DSI). Le(a) candidat(e) retenu(e) aura pour mission principale d'apporter son expertise technique sur des sujets récents liés à l'intelligence artificielle (IA) appliquée à la data, en s'appuyant sur une compréhension approfondie des enjeux métiers et techniques. Responsabilités principales : Alimentation de données : Effectuer l'ingestion, la transformation et la mise à jour des flux de données provenant de différentes sources afin d’assurer leur disponibilité et leur cohérence. Collaboration avec un Data Analyst : Travailler en binôme sur des projets liés à l’IA et à la data, en apportant votre expertise technique pour la réalisation d’analyses et la mise en place de solutions innovantes. Développement d’outils IA : Participer à la conception et au déploiement d’agents IA capables de réaliser du requêtage SQL en langage naturel, facilitant ainsi l’accès et l’interprétation des données par les utilisateurs métier. Outils et monitoring : Mettre à disposition des outils d’aide au développement, au monitoring et à la maintenance des plateformes data, afin d’assurer leur fiabilité et leur performance. Veille technologique : Effectuer une veille continue sur les architectures data, en termes de nouvelles tendances, d’outils émergents et de bonnes pratiques, pour faire évoluer nos solutions et répondre efficacement aux besoins métiers. La personne recrutée devra faire preuve de rigueur, d’autonomie et d’un esprit d’innovation, tout en étant à l’écoute des besoins des utilisateurs finaux. La maîtrise des technologies liées à l’IA, aux plateformes data et à la requête en langage naturel sera un réel atout pour la réussite de ce projet. Nous invitons donc les candidats ou organismes intéressés à soumettre leur proposition, en précisant leur approche technique, leur expérience et leur capacité à répondre à ces enjeux stratégiques.
CDI

Offre d'emploi
Administrateur réseaux (H/F)

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

40k-45k €
Vélizy-Villacoublay, Île-de-France
Nous recherchons notre prochain(e) administrateur réseaux (H/F) pour une opportunité sur Velizy dans une secteur de pointe. Ce qui vous attend : - MCO/MCS/MCH des infrastructures réseaux de plusieurs sites, - Contribuer à la mise en place des normes & nouveaux standards du LAN ; - Participer à l'amélioration des infrastructures LAN (réseaux locaux, switches, routeurs, etc.) ; - Assurer le niveau 2 & 3 des incidents LAN ; - Déléguer des actes de niveau N1/N2 à la Squad Supervision à travers des transferts de compétences et procédures ; - Traiter les demandes LAN à travers l'outil de ticketing et projets ; - Concevoir, développer et implémenter des processus d'automatisation pour les tâches récurrentes et critiques liées au LAN (configuration automatique, mise à jour, gestion des VLANs, etc.) ; - Collaborer avec les équipes de supervision pour l'intégration des outils d'automatisation dans les workflows existants ; - Réaliser des tests et des validations pour s'assurer que les systèmes automatisés répondent aux exigences opérationnelles ; - Documenter les processus d'automatisation mis en place et fournir des formations aux équipes internes ; - Documentation technique complète incluant les processus de gestion des incidents et les outils d'automatisation. Référence de l'offre : z9165u3mer
Freelance
CDI

Offre d'emploi
Data Scientist

Lùkla
Publiée le
Azure DevOps
CI/CD
Databricks

3 ans
47k-64k €
100-520 €
Paris, France
Dans le cadre de sa stratégie Data & IA, notre client dans le secteur bancaire renforce ses équipes pour concevoir, entraîner, déployer et monitorer des modèles de Machine Learning, et intégrer les solutions d’IA Générative dans ses parcours clients et processus métiers. Vous rejoignez une équipe Data innovante, à la croisée des enjeux opérationnels, réglementaires et technologiques. Environnement technique : Modélisation & IA : Logistic Regression, XGBoost / LightGBM, SHAP, LIME, LLM (OpenAI, HuggingFace), LangChain, LangGraph ML Engineering : Python, Scikit-learn, MLflow, FastAPI, Pytest, GitHub Actions, Docker, Kubernetes Cloud & Big Data : Azure ML, Databricks, pySpark, Azure DevOps, Snowflake (atout) MLOps : CI/CD, Feature Store, API ML, Monitoring Drift, Backtesting, RAGAS, LLM as a Judge
Freelance

Mission freelance
TOULOUSE - Expert Réseau & Sécurité -Fortinet / Automatisation

CAT-AMANIA
Publiée le
Ansible
F5
Fortinet

3 ans
400-440 €
Toulouse, Occitanie
Description du poste Dans le cadre du renforcement des équipes infrastructures, tu interviens en tant qu’ expert Fortinet au sein d’environnements datacenter critiques . L’équipe est en charge de la gestion des infrastructures de sécurité (hors gestion des politiques de sécurité), avec un fort enjeu de disponibilité et d’automatisation . Tes missions principales : Administrer et maintenir les infrastructures Fortinet en environnement build & run Participer au design et à l’évolution des architectures de sécurité Mettre en place et améliorer les processus d’ automatisation des infrastructures Contribuer au maintien en condition opérationnelle des plateformes de sécurité Assurer le support N3 sur les incidents complexes Participer à l’intégration des solutions de sécurité dans l’ écosystème réseau global Intervenir sur des environnements de production critiques avec des exigences fortes de disponibilité et de performance Participer aux astreintes, permanences et opérations en heures non ouvrées
CDI
Freelance

Offre d'emploi
Analyste Data

CAT-AMANIA
Publiée le
Big Data
Microsoft Power BI
PySpark

2 ans
40k-48k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Analyste Data pour intégrer l’équipe Analyse de la Donnée. Rattaché à l’équipe, vous serez en charge de mettre en œuvre des cas d’usage métier via le croisement de données, développer et maintenir des produits DATA réutilisables, et restituer vos analyses à travers des dashboards et dataviz. Vous accompagnerez également les équipes métiers dans l’acculturation DATA tout en respectant les normes et bonnes pratiques de l’équipe. Maîtrise de Python, PySpark, SQL , expérience sur Big Data Hadoop (Cloudera) et compétences en Power BI sont requises, ainsi qu’une solide expertise en data science et analyse de données.
CDI

Offre d'emploi
Manager opérationnel Data / Data science F/H - Administration des ventes et SAV (H/F)

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Business Data Analyst Pré‑Trade Énergie & Commodities

WHIZE
Publiée le
Big Data
Finance

3 ans
Paris, France
Le Business Analyst Pré‑Trade intervient au cœur des activités Front‑to‑Middle sur les marchés de l’énergie (électricité, gaz, pétrole, émissions, garanties d’origine). Il accompagne les desks trading dans l’analyse, la structuration et l’évolution des processus pré‑trade, ainsi que dans la gestion et la qualité des données de marché. Ses missions couvrent l’analyse fonctionnelle, la compréhension des produits énergie, la modélisation des données, et l’amélioration continue des systèmes ETRM/CTRM. Le rôle est orienté trading, opérationnel et data , sans dimension Risk. Missions principales Analyser les besoins des desks Power, Gas, Oil, Emissions et Renewables. Étudier les mécanismes des marchés spot, intraday, day‑ahead, balancing et dérivés énergie. Documenter et optimiser les workflows pré‑trade : saisie d’ordres, enrichissement, contrôles, validation. Analyser les contract features des produits énergie : profils horaires, règles de livraison, indexations, contraintes physiques. Structurer et fiabiliser les market data énergie : prix spot/forward, courbes, données fondamentales, données issues des plateformes (EPEX, ICE, NordPool…). Comprendre et documenter le fonctionnement de l’ order book : profondeur, liquidité, matching. Réaliser des analyses data (SQL, Python) et produire des dashboards pour les équipes trading. Rédiger des spécifications fonctionnelles (user stories, règles métier, mapping de données). Participer aux phases de tests (UAT, non‑régression) et accompagner les utilisateurs lors des déploiements.
CDI

Offre d'emploi
Administrateur(trice) Système et réseaux (H/F)

Talents Finance
Publiée le

40k-45k €
Caen, Normandie
Rattaché(e)à la Direction des Systèmes d’Information, vous intervenez dansun environnement hybride combinant infrastructures locales etservices cloud. Vous assurez le support utilisateur,l’administration, l’exploitation et l’évolution du systèmed’information. Missions : Déployer, paramétrer et maintenir les serveurs et équipements réseaux Administrer des environnements Windows Server et Linux Gérer et optimiser les plateformes de virtualisation (VMware v7/v8) Garantir la disponibilité et la fiabilité des systèmes (MCO) Administrer les services Microsoft 365, Azure, Intune et Active Directory Gérer les accès, les identités et les politiques de sécurité Superviser la gestion des postes de travail et des solutions MDM Participer aux projets de migration et d’évolution vers le cloud Assurer l’administration des réseaux LAN, WAN et Wi-Fi Configurer et maintenir VLAN, VPN et pare-feu Apporter un support technique aux utilisateurs Rédiger et actualiser la documentation technique Environnement technique : Environnements Microsoft : Azure, Intune, Microsoft 365, Active Directory Administration serveurs : Linux, Windows Server Virtualisation : VMware Sauvegarde : Veeam ou solution équivalente
Freelance

Mission freelance
DATA MESH PLATFORM MANAGER

Codezys
Publiée le
Azure
Cloud
Data governance

12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Freelance

Mission freelance
Data Architect (Secteur Luxe)

Nicholson SAS
Publiée le
Azure DevOps
Git
Github

8 mois
1 200 €
Paris, France
Pour le compte de l’un de nos clients basé à Paris, nous recherchons un Data Architect (Secteur de Luxe) afin d’intervenir sur une mission stratégique autour de l’architecture et de la valorisation des données. Missions: Concevoir et mettre en œuvre des solutions de données de bout en bout dans Azure Fabric (Lakehouse, Data Warehouse, modèles sémantiques). Intégration avec Power BI et modèles d'évolutivité. Définir les zones/hiérarchie de données (couches Bronze, Argent, Or). Établir des cadres de gouvernance des données. Modélisation des données et conception de pipelines ETL/ELT. Définir la logique de transformation et les règles métier. Gérez les charges incrémentielles, les dimensions et les contrôles de qualité. Optimisez les performances des requêtes et l’efficacité du stockage. (Outils : SQL, Python (PySpark), Azure Data Factory, Fabric Notebooks, dbt). Expertise en développement Python et SQL : rédigez des scripts Python efficaces (PySpark) pour la transformation des données dans Fabric Notebooks. SQL pour les requêtes complexes, les agrégations et l'optimisation des performances. Développer des bibliothèques de code et des fonctions réutilisables. Gérer la validation de la qualité des données et la gestion des erreurs. Représentation du fata dans la propriété finale du tableau de bord. Gestion du pipeline CI/CD et du contrôle de version GitHub : mettre en œuvre des flux de travail CI/CD pour le déploiement de produits de données. Gestion des référentiels de codes, stratégies de branchement. Suivre les modifications et maintenir des pistes d'audit. Outils : GitHub, Azure DevOps Pipelines, GitHub Actions, Git CLI, règles de protection des branches. Gouvernance des données, sécurité et contrôle d'accès basé sur les rôles (RBAC) : définissez des politiques de gouvernance pour le traçage des données, la gestion des métadonnées et les normes de qualité des données. Implémentez le contrôle d’accès basé sur les rôles (RBAC) pour les espaces de travail et les ensembles de données Fabric. Configurez la sécurité au niveau de l’espace de travail, de l’ensemble de données et des lignes. Établir des schémas de classification des données.Outils : Azure Fabric RBAC, Azure AD/Entra ID, Purview (gouvernance des métadonnées), rôles d'espace de travail Fabric, Power BI RLS (Row-Level Security). Cartographie des données E2E et définition des KPI : Documentez le lignage complet des données depuis les systèmes sources (D365, bases de données héritées) jusqu'aux magasins de données finaux. Créez des documents de cartographie détaillés (champs sources → colonnes cibles). Définissez la logique métier et les règles de transformation à chaque couche. Identifier et définir des KPI alignés avec les objectifs business. Établir la logique de calcul, les seuils et le suivi des KPI. Créez des dictionnaires de données et des glossaires métier. Outils : Confluence (documentation), Visio/Lucidchart (diagrammes de flux de données), Excel (matrices de cartographie), Power BI (tableaux de bord KPI). Documentation du cadre, normes et composants de ressources : établir des normes d'architecture de données et une documentation sur les meilleures pratiques. Conventions de dénomination, structures de dossiers, modèles de conception. Créez des modèles pour les blocs-notes, les scripts SQL et les fichiers de configuration. Définir les règles de qualité des données et les cadres de validation. Documenter les procédures de déploiement, les guides de dépannage et les runbooks. Tenir à jour les enregistrements de décisions d'architecture (ADR). Fournir des guides d'intégration pour les nouveaux membres de l'équipe. Profil : Data Architect Nombre d’années d’expérience : +7 ans Site : Paris ; sur site Prix d’achat max : 1200 euros Date de démarrage : asap Date de fin : 31/12/2026 Compétences techniques requises : Microsoft Azure Microsoft Azure Service Fabric Azure DevOps Pipelines SQL PySpark Git CLI, GitHub Power BI RLS

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6141 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous