Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 7 043 résultats.
Freelance
CDI

Offre d'emploi
Développeur C# .NEt sur Bordeaux

EterniTech
Publiée le
.NET
ASP.NET
C#

3 mois
Bordeaux, Nouvelle-Aquitaine
Je recherche pour un de mes clients un Développeur C# .NEt sur Bordeaux Compétences techniques Maîtrise de C# / .NET (niveau avancé) Expérience solide en APIs RESTful (4 ans minimum) Bonne connaissance du cloud AWS ou Azure (4 ans minimum) Pratique des outils CI/CD (GitHub Actions, Jenkins, Terraform…) Maîtrise de SQL et NoSQL (SQL Server, Redis, MongoDB, Cosmos DB) Développement assisté par l’IA Expérience concrète avec des outils d’IA générative pour devs (Copilot, Cursor, etc.) Capacité à intégrer l’IA dans les pratiques quotidiennes de dev Vision claire de ce que l’IA peut automatiser (structures, patterns, documentation…) Esprit critique : utiliser l’IA comme levier de qualité et de gain de temps, sans compromis sur les standards Méthodologies & pratiques Approche “You build it, you run it” Maîtrise du Clean Code, des revues de code et des tests Pratique de l’agilité (Scrum, XP) DevOps mindset Soft skills Communication claire et structurée Anglais professionnel Autonomie, prise d’initiative, capacité à prendre du recul
Freelance

Mission freelance
Proxy Product Owner Data – Corporate Finance Transformation

Freelance.com
Publiée le
Data management
ERP
P2P

1 an
540-600 €
Île-de-France, France
Dans le cadre d’un ambitieux programme de Finance Transformation au sein d’un grand groupe international, la Direction Data recherche un Proxy Product Owner Data pour piloter les initiatives Finance à forte composante data. Le périmètre couvre notamment les processus P2P (Procure-to-Pay) , O2C (Order-to-Cash) ainsi que les projets d’ automatisation des processus Finance dans un environnement structuré et exigeant. Description du poste Rattaché(e) au Data Office Groupe, vous intervenez en véritable interface stratégique entre les équipes Finance, IT et Data . À ce titre, vous : Identifiez et priorisez les initiatives Finance à fort impact data Traduisez les besoins métiers en exigences fonctionnelles et techniques Garantissez l’alignement avec les standards data et l’architecture groupe Validez les modèles de données et les choix d’architecture Contribuez aux cas d’usage d’automatisation (ex : Dataiku ou outil équivalent) Coordonnez les équipes Finance, IT et Data dans une logique transverse Assurez le suivi projet (jalons, risques, dépendances, reporting) Veillez au respect des exigences de gouvernance, qualité et sécurité des données Vous jouez un rôle clé dans la réussite de la transformation en garantissant que la donnée soit pleinement intégrée, exploitée et conforme aux standards du groupe.
Freelance

Mission freelance
Architecte DATA

Codezys
Publiée le
Python
SQL
Teradata

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d'une phase de transformation visant à adopter un modèle axé sur les données (Data Centric) et de définition d'une stratégie Data, le client met en œuvre une nouvelle plateforme Data Régime pour répondre à ses besoins. Un programme dédié à cette plateforme a été lancé fin 2025. Au premier trimestre 2026, des Proofs of Concept (POC) sont en cours afin de sélectionner la future plateforme Data. Le client recherche une prestation en architecture Data pour l’accompagner dans la définition de l’architecture cible et la mise en œuvre de cette nouvelle plateforme au sein d’un écosystème existant. Objectifs et livrables Le consultant intervenant aura pour mission de définir, concevoir et accompagner la construction de l’architecture cible Data. Ses principales responsabilités seront : Définir l’architecture cible Data : Concevoir une architecture alignée avec la stratégie globale Data et les principes Data-Centric, en déterminant les patterns d’intégration ainsi que les couches fonctionnelles de la plateforme (inclusion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : Élaborer l’architecture technique globale en intégrant l’écosystème existant (tels que Teradata, Hadoop) et en tenant compte des stratégies d’évolution (cloud ou on-premise, gouvernance, scalabilité). Proposer une trajectoire d’évolution permettant la transition vers cette nouvelle plateforme, incluant stratégie de migration, coexistence et déploiement par phases. Modélisation et harmonisation des données : Définir des modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossaire). Établir les principes de modélisation adaptés aux usages, qu'ils soient analytiques, opérationnels ou liés à des data products. Data Products & accompagnement métier : Soutenir les équipes métiers dans la conception et la structuration des data products, en veillant à leur cohérence avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : Élaborer les standards d’intégration, de transformation, de stockage et d’exposition des données. Formaliser les bonnes pratiques concernant les outils de l’écosystème, notamment ceux liés à l’ingestion, à la qualité, à l’orchestration, au catalogage et à la gouvernance.
Freelance

Mission freelance
LEAD MACHINE LEARNING MLOPS

Atlas Connect
Publiée le
Agent IA
API
API REST

6 mois
600-680 €
Paris, France
Mission Garantir l’excellence technologique du pôle IA en définissant les standards d’architecture et de développement, en sécurisant la mise en production de solutions d’intelligence artificielle complexes et en accompagnant la montée en compétence des équipes techniques. Le Tech Lead ML joue un rôle clé dans la conception, la robustesse et la scalabilité des produits IA tout en contribuant aux décisions stratégiques liées à la roadmap technologique. Responsabilités principalesArchitecture & Engineering IA Définir et maintenir les standards d’architecture ML/IA dans des environnements multi-cloud . Concevoir et valider les pipelines ML / IA end-to-end (data → training → évaluation → déploiement → monitoring). Mettre en place les bonnes pratiques de MLOps et industrialisation des modèles . Choix technologiques Superviser les choix d’outils et frameworks : frameworks ML solutions cloud (Google Cloud, Microsoft Azure) outils MLOps Garantir la cohérence technologique de l’écosystème IA. Qualité technique & gouvernance Auditer et challenger la qualité technique des produits IA : performance robustesse sécurité coûts (FinOps) maintenabilité Mettre en place des standards de gouvernance des modèles et des données . Leadership technique Jouer un rôle d’ expert et de mentor auprès des équipes Data Science et Data Engineering. Accompagner la montée en compétence technique des équipes. Définir et diffuser les bonnes pratiques de développement . Contribution stratégique Participer aux phases de cadrage et de conception des produits IA . Contribuer à la définition de la roadmap produit IA . Collaborer étroitement avec : le Product Owner IA les Data Scientists les Data Engineers les équipes software. Innovation & veille Assurer une veille technologique active sur les innovations IA : IA générative MLOps architectures data outils et frameworks émergents.
Freelance

Mission freelance
[FBO] Product Owner Data sur des données RH - Saint Denis - 1419

ISUPPLIER
Publiée le

9 mois
300-430 €
Saint-Denis, Île-de-France
Contexte de la mission Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP •
Freelance

Mission freelance
Développeur Infrastructure / DevOps – Plateforme Data (H/F)

Pickmeup
Publiée le
Azure
Kubernetes
Terraform

2 ans
500-600 €
75015, Paris, Île-de-France
🏢 Contexte Au sein d’une organisation publique innovante spécialisée dans la gestion et la valorisation de données à grande échelle , vous rejoignez la direction technique en charge de la conception, de l’implémentation et de la maintenance d’une plateforme Data sécurisée. Vous intégrerez une équipe technique dédiée à l’infrastructure, évoluant dans un environnement agile et collaboratif, en interaction avec des profils Data, Produit et Ops. La plateforme repose sur des technologies cloud modernes et des pratiques d’ Infrastructure as Code dans un contexte exigeant en matière de sécurité. 🚀 Missions En tant que Développeur Infrastructure / DevOps, vous interviendrez sur : 🔧 Développement & automatisation Développement et maintenance de l’infrastructure as code Automatisation des déploiements cloud à grande échelle Intégration de composants techniques au sein d’environnements Kubernetes ⚙️ Plateforme & performance Déploiement et maintenance de composants applicatifs et techniques Contribution à la stabilité, performance et évolutivité de la plateforme Collaboration avec les équipes Data pour répondre aux besoins métiers 🔐 Sécurité & bonnes pratiques Application des standards de sécurité et conformité Participation aux évolutions d’architecture Veille technologique et amélioration continue 📚 Documentation & collaboration Rédaction et mise à jour de la documentation technique Participation aux échanges techniques et partage de bonnes pratiques 🛠️ Environnement technique Cloud : Azure Infrastructure as Code : Terraform, Terragrunt, Packer, Ansible Conteneurisation : Kubernetes, Docker, Helm Scripting : Bash, Python Outils : Git, CI/CD, GitLab Data tools : Jupyter, Spark, PostgreSQL
Freelance
CDI

Offre d'emploi
Consultant SAP CO PC (H/F)

Scalesys
Publiée le

32 mois
Île-de-France, France
📋 RÉSUMÉ Vous accompagnez les directions Finance et Contrôle de gestion dans la mise en œuvre, l'évolution et le support des processus de calcul des coûts de revient sur SAP CO-PC (Product Costing). Vous intervenez sur des projets de transformation (migration S/4, rollout, harmonisation) et/ou sur du RUN (support N2/N3, améliorations continues), avec une exigence forte sur la qualité, la traçabilité et l'alignement métier. 🎯 MISSIONS Recueillir et analyser les besoins Finance (calcul des coûts standards, coûts réels, analyse des écarts) et proposer des solutions SAP CO-PC adaptées. Réaliser le paramétrage (customizing) CO-PC et documenter les choix (costing variants, cost component structure, overhead calculation). Rédiger les spécifications fonctionnelles et piloter/valider les développements (ABAP, interfaces). Préparer et exécuter les tests (unitaires, intégration, UAT), organiser la recette et sécuriser les corrections. Accompagner la mise en production (cutover, hypercare) et produire la documentation/supports de formation. Assurer le support N2/N3, analyser les incidents/problèmes, proposer et suivre les plans d'actions. Travailler en interface avec les équipes métiers (Finance, Contrôle de gestion), l'intégration, la data et les équipes techniques. Contribuer à l'amélioration continue (standardisation, simplification, capitalisation). 📦 LIVRABLES Dossier de conception / paramétrage (customizing). Spécifications fonctionnelles (et mappings d'interface si applicable). Plans de tests et rapports de recette (SIT/UAT). Documentation utilisateur / exploitation. Suivi incidents/problèmes et plan d'amélioration.
Freelance
CDI

Offre d'emploi
Lead Developer Python – IA / Automatisation

AGH CONSULTING
Publiée le
FastAPI
Python

6 mois
40k-60k €
400-540 €
Île-de-France, France
Contexte de la mission Dans le cadre de ses projets de transformation et d’automatisation des processus métiers, notre client lance plusieurs initiatives visant à fournir aux équipes internes des outils d’automatisation s’appuyant sur Python et des technologies d’IA (LLM / Machine Learning) . L’objectif n’est pas de mener des projets de recherche mais de déployer des solutions pragmatiques et industrialisées répondant à des cas d’usage métiers concrets. Plusieurs outils sont déjà déployés en production et nécessitent des évolutions, tandis que de nouvelles solutions doivent être développées . La mission s’inscrit dans une équipe projet intégrée , en interaction directe avec les métiers, tout en respectant l’architecture et l’écosystème applicatif Le consultant interviendra en remplacement d’un Tech Lead actuellement absent et viendra renforcer une équipe composée de : 1 Product Owner 1 Chef de projet 1 Référent technique 1 Développeur senior Missions principales Le Lead Developer Python interviendra sur l’ensemble du cycle technique : Cadrage et conception Participer au cadrage technique des nouveaux sujets Concevoir les architectures applicatives Définir les patterns de développement et bonnes pratiques Développement et intégration Développer des solutions backend en Python Mettre en place des API et services applicatifs Intégrer des briques IA (LLM / machine learning) dans les applications Assurer les connexions avec des systèmes tiers via différentes API Qualité et industrialisation Réaliser des revues de code Mettre en place des tests unitaires Documenter les solutions techniques Garantir la qualité et la maintenabilité du code Interaction métier Travailler en mode itératif avec les équipes métiers Participer aux tests utilisateurs Concevoir des solutions adaptées aux besoins opérationnels
Freelance

Mission freelance
Data Model Architect

Phaidon London- Glocomms
Publiée le
Architecture
Data governance
Data quality

6 mois
400-550 €
Arcueil, Île-de-France
Concevoir le modèle de données Salesforce (objets, champs, relations) pour l'ensemble des flux de travail du projet. Définir et appliquer les conventions de nommage et les normes de modélisation. Examiner et valider toutes les demandes de nouveaux objets ou champs personnalisés. Gérer l'évolution du modèle pour l'ensemble des flux de travail, en garantissant la rétrocompatibilité. Concevoir la stratégie de migration et de chargement des données pour les jeux de données existants. Garantir la pleine compatibilité du modèle de données avec Agentforce. Documenter et maintenir le dictionnaire de données du projet. Accompagner les équipes concernant la gestion des hiérarchies, les objets à volume élevé et les structures de comptes complexes.
Freelance

Mission freelance
Data Engineer - Lille

ICSIS
Publiée le
Apache Kafka
CI/CD
DBT

2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Freelance
CDD

Offre d'emploi
Consultant Data Senior (Snowflake / MicroStrategy)

Digimatch
Publiée le
Confluence
Data quality
ETL (Extract-transform-load)

6 mois
60k €
550 €
Île-de-France, France
Dans le cadre d’un projet stratégique de décommissionnement de systèmes legacy, nous recherchons un consultant Data senior, à la fois fonctionnel et technique, pour accompagner une migration de données et la mise en place de reporting. Contexte de la mission Projet de décommissioning d’une base de données / legacy system risk Migration des données vers un environnement Snowflake Refonte / maintien du reporting sous MicroStrategy Environnement décisionnel à forts enjeux métiers Missions principales Analyse de l’existant (legacy systems, flux, risques) Cadrage fonctionnel de la migration de données Pilotage et/ou réalisation des migrations (ETL, contrôles, qualité des données) Contribution à la mise en place et à l’optimisation du reporting MicroStrategy Interaction avec les équipes métiers et IT Accompagnement au décommissionnement des systèmes legacy
Freelance

Mission freelance
Data Engineer Nantes/pa

WorldWide People
Publiée le
Scripting

12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
Consultant(e) SAP FICO - Data Migration S/4 - IDF

Signe +
Publiée le
SAP FICO

3 mois
550-700 €
Le Plessis-Robinson, Île-de-France
Dans le cadre d’un programme de transformation SAP, notre client recherche un Consultant SAP FI/CO pour intervenir sur un projet de migration de données ECC vers S/4HANA. Le consultant intégrera l’équipe technico-fonctionnelle Data Migration et interviendra principalement sur la définition et la formalisation des règles de transformation et de mapping des données Finance et Controlling. Missions Analyser les modèles de données FI/CO entre ECC et S/4HANA . Définir et documenter les règles de transformation, de mapping et de nettoyage des données . Participer aux ateliers avec les équipes métiers Finance, Controlling et gestion de projet . Contribuer à la conception des objets de migration et des templates de reprise de données . Accompagner les équipes Data Migration lors des phases de migration et de tests (Unit Tests, SIT, UAT) . Identifier les écarts, risques et impacts liés à la migration et garantir la cohérence des données dans S/4HANA. 📍 Localisation : 92 🏢 Présence : 3 jours sur site / 2 jours télétravail 📅 Démarrage : ASAP ⏳ Durée : Mission longue (programme stratégique S/4HANA) 💰 TJM : 600-700 € selon expérience 🌍 Langue : Anglais intermédiaire requis
Freelance

Mission freelance
Mission Développeur Back-End Python – Projet Data & Imagerie Satellite (H/F)

Freelance.com
Publiée le
Ansible
Apache Airflow
CI/CD

1 an
510-580 €
Île-de-France, France
Dans le cadre du développement d’un nouveau système de détection automatisée d’objets d’intérêt sur des images satellites, nous recherchons un développeur back-end Python expérimenté. Ce projet stratégique vise à concevoir une nouvelle plateforme indépendante de l’application historique existante, avec une attention particulière portée à la robustesse et à la scalabilité de l’architecture dès les premières phases. Vous interviendrez au sein d’une petite équipe de développement composée de trois ingénieurs, dans un contexte où les choix techniques et l’architecture du système auront un impact structurant pour les évolutions futures de la solution. Les principales responsabilités incluent la conception et le développement d’API REST en Python (FastAPI), la modélisation et l’optimisation de bases de données — principalement PostgreSQL — ainsi que la structuration des fondations techniques d’un système destiné à monter en charge. Vous participerez également à l’automatisation des déploiements via des outils de conteneurisation et de CI/CD, et contribuerez à la mise en place de tests automatisés et à l’amélioration continue de l’architecture applicative
Freelance

Mission freelance
Consultant DATA/ BI

HAYS France
Publiée le
Azure Data Factory
Azure Synapse
Microsoft Power BI

5 mois
Obernai, Grand Est
Nous recherchons un Consultant Data / BI capable d’intervenir sur un environnement mêlant Enterprise Architecture , Azure Data Platform , et Power BI . L’objectif : adapter un écosystème LeanIX + Data Platform à une nouvelle organisation interne, tout en assurant la mise à jour des flux, du modèle de données et des rapports analytiques. Vos responsabilités Dans le cadre de cette mission, vous interviendrez sur les sujets suivants : LeanIX Adapter la configuration LeanIX pour refléter la nouvelle organisation. Collaborer avec l’équipe Enterprise Architecture. Azure Data Platform Ajuster et optimiser les flux de données (Azure Data Factory). Adapter le modèle de données dans Azure Synapse Dedicated SQL Pool . Maintenir et faire évoluer une Azure Function en Python . Participer à des déploiements via Bicep . Power BI Mettre à jour les semantic models. Ajuster et optimiser les rapports existants. Documentation & collaboration Produire la documentation en anglais. Participer à une évaluation préliminaire d’ ARIS comme alternative potentielle.
Freelance

Mission freelance
Data Architect Databricks Nantes/pa

WorldWide People
Publiée le
Databricks

12 mois
Nantes, Pays de la Loire
Data Architect Databricks Nantes Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…). Prestation de Data Architect •Il définit l’architecture Data pour son périmètre, en fonction des besoins métier, en tenant compte de l’architecture du SI, des règles de gouvernance Data et plus globalement des standards et des communs définis au niveau de son organisation. •Sur la partie Data, il définit les normes et standards en matière de disponibilité, d’intégrité, de confidentialité et de traçabilité dans l'objectif de maximiser la valeur que l’organisation tire de ces données. •C’est lui qui pilote la mise en oeuvre des principes d’architecture Data dans le SI et garantit sa conformité, sa performance, sa pérennité, son adéquation aux besoins métier ainsi que l’optimisation du cycle de vie de la donnée. •Le Data Architect préconise et valide les principes de modélisation des données pour qu’ils soient adaptés aux usages de façon durable. •Il organise la gestion des référentiels Data et facilite leur maintenance. Tâches : •Contribue à l’élaboration de la stratégie Data de la donnée alignée avec la stratégie business et en cohérence avec la roadmap de l’Architecte d’entreprise. •Contribue aux choix technologiques qui portent le cycle de vie de la donnée. •Assure une veille technologique active sur les solutions innovantes et particulièrement en matière de Data et d’IA. •Définit les règles, normes et standards en matière de stockage et de traitement de la donnée. •Coordonne les travaux d’architecture Data et en assure la gouvernance. •Assure la cohérence du modèle Data tout au long du cycle de vie des projets. •Répond aux exigences réglementaires liées à la Data. Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…).
7043 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous