Trouvez votre prochaine mission ou futur job IT.
Mission freelance
DATA ARCHITECT FINANCEMENT
Pour l’un de nos clients du secteur bancaire, nous recherchons un(e) Data Architect spécialisé(e) dans les métiers du financement (Corporate Banking, crédits structurés, syndiqués, etc.). Le consultant interviendra dans la définition et la mise en œuvre de l’architecture fonctionnelle et des flux de données liés aux activités de financement. Il contribuera à la conception des modèles de données, à l’optimisation des échanges entre les systèmes front, middle et back-office, ainsi qu’à la gouvernance de la donnée. Le rôle implique une compréhension fine des enjeux métiers du financement et la capacité à traduire ces besoins en solutions data performantes et sécurisées.
Mission freelance
Solution Data Architect H/F
Périmètre et objectifs de la mission Mission principale : Prendre en charge l’architecture de bout en bout des solutions data pour les produits et cas d’usage analytiques, au sein d’un ou plusieurs value streams. Traduire les besoins métiers en solutions data sécurisées, scalables et optimisées en coût, s’appuyant sur la plateforme data d’entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). 2. Responsabilités principales Architecture : Ingestion batch/stream, DWH (modélisation Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL/API/couche sémantique, gestion des flux de features ML si besoin. Modélisation : Transformation des concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, clustering, indexation…). BI & Analytics : Gouvernance des KPIs, optimisation des dashboards et des requêtes, gestion du cache et des agrégats, promotion du self-service (dbt/metrics layer + catalogue). Ops & FinOps : Suivi des SLOs (fraîcheur, latence, coût), observabilité, runbooks, backfills, tuning du stockage et des requêtes pour réduire les coûts. Gouvernance/Mesh : Gestion des métadonnées, documentation, publication de blueprints et d’ADRs.
Mission freelance
Data Architect - (h/f)
Nous recherchons un Data Architect qui fera partie de l'équipe stable BI & Analytics. Rôle : En tant que Data Architect, il/elle garantira que les produits livrés par l'équipe stable sont alignés avec l'architecture cible globale. Pour soutenir ce poste, nous recherchons un Data Architect Azure avec une bonne compréhension globale des services disponibles dans la pile Azure Analytics. Cette personne travaillera avec le DPO, Data Analyst, Data Engineer et Data Scientist de l'équipe stable, mais aussi avec la communauté des Architectes pour définir l'architecture avec la bonne qualité, la valeur commerciale pertinente et la maintenabilité à long terme. De plus, il/elle doit également avoir des compétences en leadership pour prendre la responsabilité technique dans les discussions avec les parties prenantes commerciales et l'architecture d'entreprise. Tâches : Fournir un leadership technique, participer aux efforts de développement et représenter l'ensemble des capacités internes et externes de la plateforme. Être un membre actif de la guilde des architectes pour superviser les processus de gestion des données et fournir des conseils et une direction aux équipes de développement. Être responsable de la conception et de la documentation de la solution dans son domaine. Avoir de l'expérience avec Databricks, le stockage ADLS, SQL DB, ADF et Power BI. Définir et posséder une architecture de données évolutive de bout en bout en tenant compte de l'architecture d'entreprise et des normes de l'industrie. Développer, documenter et maintenir des modèles de données logiques et physiques. Créer un tableau de bord client 360 basé sur les données CRM et les sources externes pour soutenir le processus marketing. Mettre en place un Produit Data pour soutenir l'approche CAST (produit réutilisable partagé) en ligne avec la stratégie du Groupe. Faire partie de l'équipe de maintenance pour garantir la continuité des processus commerciaux. Compétences : Architecture de données minimum 4 ans Rédaction de SQL et modélisation des données Conception de l'architecture de données Power BI Composants Azure comme ADFv2, Databricks, Delta lake Technologies et cadres d'analytique avancés Azure Langage de programmation lié à l'analytique avancée : Python, Pyspark Modèle de livraison basé sur le cloud Microsoft Gestion des données, gouvernance des données et qualité des données Déploiement d'API ou de microservices DevSecOps Agile Expérience de travail dans un environnement mondial Excellentes compétences en communication en français et en anglais (niveau C1) Autres détails : Sur site à Lyon 3 jours par semaine
Offre d'emploi
Data Architecte
3. Compétences requises - Expérience : o 7 à 12 ans en ingénierie/architecture data avec DWH (Kimball/Inmon), BI, Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. o Modélisation sémantique, data contracts, performance engineering, dbt/metrics layer, GCP + on-premise, IaC/CI-CD pour la data. - Livrables clés : o Architecture one-pager, data contracts, ADRs/HLD, modèle sémantique & arbre de KPIs, runbook/SLOs, modèle de coûts. 4. Gestion des parties prenantes - Collaboration étroite avec les parties prenantes métiers, delivery leads et product owners pour recueillir les besoins, prioriser les fonctionnalités à forte valeur ajoutée, et présenter régulièrement les avancées à la direction. Résumé : Ce SOW définit une mission de Solution Data Architect axée sur la conception, la gouvernance et l'optimisation de solutions data avancées, avec une forte exigence de qualité, de documentation, de collaboration transverse et d'innovation technologique. Lieu : Velizy Lieu d'exécution : Vélizy avec possibilité de télétravail (max 2 jours/semaine).
Mission freelance
Data Architect SSOT / RT
Pour le besoin de mon client basé à Aix/Marseille ,je suis à la recherche d'un Data Architect SSOT / Real-Time Missions Architecture & Design Définir l’architecture globale de la Single Source of Truth et de ses trois composantes (Access, Knowledge, Trust). Concevoir et documenter les modèles de données et les cadres d’architecture alignés avec les standards du groupe. Définir les points d’interaction avec les solutions du Groupe, et recommander des fusions si nécessaire. Intégrer des capacités temps réel et streaming (event-driven architecture) dans la conception globale.Compétences Techniques Solide connaissance des architectures data et cloud (Snowflake, modélisation de données, Semarchy ou équivalent). Bonne compréhension des solutions de catalogage et de qualité de données. Expérience avec des architectures temps réel et streaming (Kafka, Spark, frameworks de streaming). Bonne compréhension du MDM (Master Data Management). Sensibilité aux standards de gouvernance, conformité et sécurité. Fonctionnelles et interpersonnelles
Offre d'emploi
Data Architecte Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Data Architect
Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps
Offre d'emploi
Data Architect
Au sein de la Data Fabric d'INVENTIV IT, nous recherchons un Data Architect pouvant nous accompagner sur nos différents projets clients, notamment dans la mise en place et l'évolution de Data Market Place et Platform Data complexe. Ce poste requiert une expérience technique et architecturale solide, ainsi qu'une solide expérience pratique des technologies cloud, du développement de microservices et de l'architecture événementielle. Vous aurez à collaborer étroitement avec les équipes informatiques INVENTIV IT et de nos clients (à l'international) ,les partenaires commerciaux, les partenaires métiers, les partenaires externes et l'ensemble des membres de l'équipe d'intégration. Dans le cadre de nos projets une excellente compréhension et communication en Français/Anglais est indispensable - Engagement sur les sujets - Capacité à effectuer une restitution documentaire dans le cadre d'un audit, d'une preuve de concept (POC) ou en matière de normes et d'architecture Nos environnements techniques : AWS/AZURE, Databricks, Snowflake, DBT, Big Data, BI, intégration continu, DataSecOps ... Notre offre : Fixe + Variables + avantages Exemple d'objectif et de livrables attendus : Design and propose solutions on Data using Azure Cloud technologies within our framework Design and propose solutions on Snowflake Apply the “Data as a Service” strategy in accordance with architectural best practices Design and develop APIs / Micro services to enrich our solutions framework Support the Event Driven Architecture strategy based on Azure Event Hub and Azure IoT Hub Contribute to our catalog of services for self-service enrichment Contribute to modernization and technology awareness within Data Capture team and across Data & Analytics organization Be the referent in the team for all cloud subjects Conduct workshops and facilitate requirement gathering Support Data Engineers to Cloud related topics Support Security team for related topics Contribute to Data Capture roadmap and evolution Challenge and support external vendors Au plaisir d'échanger et de collaborer ensemble
Mission freelance
229359/Data Architect DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi)
Data Architect Expérience: • Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Mission Maîtrisez l'architecture de la solution de bout en bout pour les produits de données et les cas d'utilisation analytiques au sein d'une ou plusieurs chaînes de valeur. Traduisez les résultats commerciaux en solutions de données sécurisées, évolutives et soucieuses des coûts, basées sur les données et la plateforme d'entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). Architecture : Ingestion de lots/flux, DWH (Kimball/Star) + Lakehouse (Iceberg/Trino), service via SQL/APIs/couche sémantique ; Les fonctionnalités ML s'écoulent en cas de besoin. Modélisation : Concepts métiers → conceptuels/sémantiques → logiques/physiques (partitionnement, ordre Z/cluster, index). BI & Analytics : Posséder la couche sémantique/les métriques, gouverner les KPI, optimiser les performances du tableau de bord/requête, la mise en cache, les agrégats ; activer le libre-service (couche dbt/metrics + catalogue). Ops & FinOps : SLO (fraîcheur/latence/coût), observabilité, runbooks, backfills ; ajustez le stockage/les requêtes pour réduire les coûts. Gouvernance/Maillage : métadonnées de propriété du produit, découvrabilité, documentation ; publication de blueprints et ADR. Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Gestion des parties prenantes • Travaillez en étroite collaboration avec les parties prenantes de l'entreprise, les responsables de livraison et les propriétaires de produits pour recueillir des informations, comprendre les points faibles et hiérarchiser les fonctionnalités qui génèrent de la valeur pour l'entreprise. • Présenter régulièrement des mises à jour sur les progrès à la haute direction, en soulignant les étapes franchies, les défis rencontrés et les prochaines étapes du processus de développement.
Mission freelance
Administrateur SAP BO BI / Data Architect SAP BO BI (H/F)
Vous souhaitez rejoindre une équipe dynamique au cœur de la Data Factory et contribuer à la performance d’environnements SAP BO BI 4.3 ? Chez Scalesys, nous recherchons un profil technique Administrateur SAP BO BI / Data Architect SAP BO BI : un expert capable d’assurer la continuité opérationnelle, le support avancé et l’amélioration des environnements SAP BO BI 4.3. Rejoignez une équipe experte à Nantes, où autonomie, rigueur et esprit collectif sont les clés de la réussite. Ce poste s’adresse à un profil rigoureux, autonome et passionné par l’administration des systèmes décisionnels.
Offre d'emploi
Data Modeleur / Architecte data
Dans le cadre du projet de transformation et de modernisation de notre système d'information décisionnel, nous recherchons un data modeler expérimenté pour renforcer l’équipe Data. La mission porte sur la conception et la formalisation de modèles de données destinés à alimenter des usages décisionnels et analytiques, avec un fort enjeu de qualité, de pérennité et d’alignement avec les standards du métier. Le candidat travaillera en étroite collaboration avec les équipes data, les experts métiers et les data ingénieurs.
Offre d'emploi
Data Architecte - Lyon
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Data Platform Architect
Fournir un accompagnement fonctionnel et technique solide pour garantir la conception adéquate de la plateforme de données et d'analyse, en visant des solutions techniques et d'intégration de pointe. Concevoir, coordonner et exécuter des projets pilotes, des prototypes ou des preuves de concept pour valider des scénarios spécifiques. Diriger et coordonner les activités opérationnelles liées à la plateforme de données et d'analyse. Assurer la responsabilité de la documentation technique des plateformes impliquées dans la plateforme. Collaborer avec les architectes d'entreprise pour aligner les conceptions de la plateforme de données et d'analyse sur l'architecture globale et contribuer à cette architecture. Superviser et améliorer continuellement l'architecture et l'écosystème de la plateforme de données et d'analyse. Maintenir une connaissance approfondie des outils et plateformes utilisés dans la plateforme de données et d'analyse, ainsi que de leur écosystème et de leur feuille de route. Répondre aux besoins organisationnels des différents utilisateurs de la plateforme de données et d'analyse, notamment les data scientists, les data engineers et les développeurs Qlik. Mener la transition continue du système sur site vers le cloud public. Coaching de l'équipe de développement dans les domaines pertinents.
Mission freelance
Architecte Data
Mission : les sujets à traiter sont Modélisation des données (Objets Métiers et référentiel d’architecture …) Gouvernance des données : rôles, responsabilités, règles de gestion, sécurité, conformité, … Comprendre et challenger les architectures d’intégration (API, Kafka, …) Qualité des données Données de références (identification et échanges des données de références) Cycle de vie de la donnée Attendus : Animation des ateliers métiers Sollicitation des parties prenantes (SAE, Service Data) pour compléments d’information Support au Service Data à la rédaction des livrables Livrables Dictionnaire de données métiers Lexique fonctionnel et technique CR ateliers
Mission freelance
Architecte DATA
Recherchons un Architecte DATA Tâches à réaliser : Conceptualisation de solutions et réalisation de proof of concept Estimation des efforts, développement, mise en œuvre et déploiement d’applications Développement de code sécurisé, propre, réutilisable et bien documenté (méthode AGILE) Configuration des environnements de développement, test et production (local et cloud) Maintien de la qualité du code, documentation, déploiement en production et transfert de connaissances Compétences demandées Data ingestion: scripting like PowerShell & python Confirmé PowerBI (DAX) Confirmé Knowledge in Azure Cloud Confirmé TALEND Expert ServiceNow customization Avancé Azure Data Factory Confirmé Familiarité avec les solutions d’automatisation d’infrastructure (Ansible, Terraform, etc.) Confirmé Pratique du langage Python, documentation du code, implémentation de tests unitaires et de pipelines d’intégration Confirmé
Offre d'emploi
Architecte Data
Offre d’emploi : Data Architect – Solutions de Gestion des Risques Supply Chain Contexte et enjeux Vous rejoignez un projet stratégique visant à anticiper et à maîtriser les risques liés aux fournisseurs dans un environnement industriel à haute criticité. La plateforme sur laquelle vous interviendrez permet de gérer de façon proactive les risques fournisseurs pour un certain nombre de produits impactant la supply chain. Elle centralise les données issues de multiples systèmes, permet de simuler différents scénarios et d'en évaluer les impacts, et recommander des actions de remédiation. Les données intégrées dans l’application sont issues de différentes sources (ERPs, Procurement BI, e-ACQ, fichiers externes). Le traitement et la qualité des données sont essentiels car les chargements nécessitent un travail important de préparation avec des enjeux de performance, de fiabilité et de conformité réglementaire. Vos missions 1. Intégration et gouvernance des données Identifier les sources de données pertinentes (ERP, outils achats, fichiers externes, données marché). Définir les flux d’extraction, les règles de transformation et les formats cibles. Préparer les données (filtres, mappings, indicateurs, scripts d’automatisation). Garantir leur cohérence fonctionnelle. Mettre en place des processus d’automatisation pour fiabiliser et accélérer les mises à jour récurrentes. 2. Modélisation et qualité des données Vérifier l’adéquation des modèles de données proposés par l’éditeur et recommander des ajustements si nécessaire. Diagnostiquer les problèmes de qualité, analyser les écarts et proposer des solutions d’amélioration technique ou process. Contrôler la cohérence des indicateurs clés et des résultats de simulation. Maintenir un jeu de données de référence pour les tests et les validations. 3. Pilotage technique et support plateforme Accompagner les équipes techniques et l’éditeur dans la compréhension des architectures sources et des données métier. Contribuer au déploiement des nouvelles versions applicatives et aux montées de version techniques. Participer aux tests des releases applicatives 4. Documentation et amélioration continue Documenter l’ensemble des traitements sur les données Participer aux phases de test, de non-régression et à l’analyse des incidents. Proposer des évolutions pour renforcer la robustesse et la scalabilité de la plateforme.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.