Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.
 
 
            Offre d'emploi
            
        Data Architect 
      
 Au sein de la Data Fabric d'INVENTIV IT, nous recherchons un Data Architect pouvant nous accompagner sur nos différents projets clients, notamment dans la mise en place et l'évolution de Data Market Place et Platform Data complexe. Ce poste requiert une expérience technique et architecturale solide, ainsi qu'une solide expérience pratique des technologies cloud, du développement de microservices et de l'architecture événementielle. Vous aurez à collaborer étroitement avec les équipes informatiques INVENTIV IT et de nos clients (à l'international) ,les partenaires commerciaux, les partenaires métiers, les partenaires externes et l'ensemble des membres de l'équipe d'intégration. Dans le cadre de nos projets une excellente compréhension et communication en Français/Anglais est indispensable - Engagement sur les sujets - Capacité à effectuer une restitution documentaire dans le cadre d'un audit, d'une preuve de concept (POC) ou en matière de normes et d'architecture Nos environnements techniques : AWS/AZURE, Databricks, Snowflake, DBT, Big Data, BI, intégration continu, DataSecOps ... Notre offre : Fixe + Variables + avantages Exemple d'objectif et de livrables attendus : Design and propose solutions on Data using Azure Cloud technologies within our framework Design and propose solutions on Snowflake Apply the “Data as a Service” strategy in accordance with architectural best practices Design and develop APIs / Micro services to enrich our solutions framework Support the Event Driven Architecture strategy based on Azure Event Hub and Azure IoT Hub Contribute to our catalog of services for self-service enrichment Contribute to modernization and technology awareness within Data Capture team and across Data & Analytics organization Be the referent in the team for all cloud subjects Conduct workshops and facilitate requirement gathering Support Data Engineers to Cloud related topics Support Security team for related topics Contribute to Data Capture roadmap and evolution Challenge and support external vendors Au plaisir d'échanger et de collaborer ensemble
            Mission freelance
            
        Data Engineer Palantir 
      
 Orcan Intelligence recherche pour l'un de ses clients un Data Engineer senior. Le Data Engineer senior devra construire, livrer, maintenir et documenter des pipelines de données dans le périmètre des fondations Risque. Livrables attendus : Pipelines de données pour les fondations Risque, livrés dans les délais. Code documenté et testé unitairement. Mises en œuvre des contrôles de qualité et de santé ( health checks ). Expérience et compétences requises :
 
 
            Mission freelance
            
        Senior Developer Master Data Management - 
      
 - Développeur senior sur un projet de gestion des données de référence - Concevoir, développer et tester - Fournir une expertise technique sur la technologie Java - Soutenir toute l'équipe TA et BA pour fournir les meilleures solutions en matière de conception et de résolution de problèmes - Ressources pour les mentors juniors - Respect des normes de codage, examens constructifs et génération d'utilitaires communs dans la mesure du possible - Assurer la coordination avec les autres groupes responsables de la livraison du produit de travail assigné - Fournir des mises à jour sur l'état d'avancement du produit de travail selon les échéanciers convenus. - Fournir des estimations pour les nouveaux projets initiés - Expérience dans les activités de gestion des incidents, des changements, des versions, de la configuration et des problèmes - S'assurer que les livraisons respectent les délais et les efforts convenus - Intérêt pour la compréhension des notions fonctionnelles derrière les domaines techniques
 
 
            Offre d'emploi
            
        Expert Data Gouvernance
      
 Rejoignez INVENTIV IT pour conseiller nos clients et travailler sur nos projets Data au sein de la Data Fabric . En tant qu' Expert Data Governance, vous piloterez des programmes stratégiques visant à garantir la confiance, la qualité et la conformité des données alimentant les Platform Data et les Data Market Place . Votre expertise couvrira les volets stratégiques et opérationnels, du design du modèle opérationnel au déploiement des outils de gouvernance. 🎯 Vos Missions Principales1. Pilotage de Programmes de Gouvernance & Qualité Stratégie & Déploiement : Définir et piloter la mise en œuvre de la Politique de Gouvernance et de Qualité des données . Modèle Opérationnel : Concevoir et déployer le Modèle Opérationnel (rôles, responsabilités, processus) de la Data Governance , incluant la gestion des incidents de Qualité des Données. Réglementation : Anticiper et mettre en œuvre les exigences de conformité (ex. : BCBS 239 , Al Act ) et de Data Privacy . 2. Expertise MDM, Catalogue et Outillage Master Data Management (MDM) : Déployer le dispositif de gestion des Master Data et accompagner la modélisation des données de référence. Data Catalog : Déployer et piloter les travaux d'évolution du Data Catalog (expertise Collibra et/ou Data Galaxy ) pour la documentation et la classification des données confidentielles. Qualité de Données : Cadrer et déployer des solutions d'outillage de Qualité des Données (ex. : Attacama , Dataiku ). 3. Contexte Avancé (Cloud, Data Market Place & IA) Architecture & Plateforme Data : Contribuer à la définition du Target Operating Model de la Plateforme Data en tenant compte des grandes orientations technologiques (Cloud vs On-Premise ). Contexte Cloud/Big Data : Utiliser votre connaissance des environnements AWS, AZURE, Snowflake et Databricks pour adapter les dispositifs de Gouvernance et de Qualité à ces plateformes modernes. IA/Gen AI : Mettre à profit votre expérience en Gouvernance des IA et Product Ownership Gen AI pour sécuriser l'exploitation des données dans des cas d'usage avancés. 4. Leadership et Acculturation Collaboration Métiers : Collaborer étroitement avec les fonctions Business & Produits (Finance , RH , Marketing , Sales ) pour l'adoption des modèles et la collecte des cas d'usage Data & IA. Acculturation : Conduire des sessions de formation et animer les comités de pilotage (COPIL, COMEX ). 🛠️ Compétences et Outils Indispensables Expertise Métier : Data Gouvernance , Master Data Management , Data Quality , Data & AI Strategy . Outils de Gouvernance : Expertise Collibra , Data Galaxy . Outils d'Intégration/Qualité : Expérience Informatica , Dataiku , Attacama . Méthodes : Agile at Scale , Design Thinking , Change Management Expérience dans un contexte Databricks, Snowflake, AWS & Azure fortement recommandé Exemple de mission : Définition de la Politique de Gouvernance des données et de Qualité des données Cartographie complète du patrimoine de données et Design du l’Enterprise Data Model Design et Déploiement du Dispositif de Gestion des Master Data Design et Déploiement du Dispositif de Mise en qualité des données Design et Déploiement du Dispositif de Documentation des Données Pilotage des travaux de Déploiement et D’évolutions du Data Catalog (Collibra) Cadrage, Spécification et Déploiement d'un Outil Data Quality (Attaccama) Accompagnement des cas d'usage analytiques et des projets métiers dans la collecte, et la mise en qualité des données consommées
 
 
            Mission freelance
            
        Data Scientist IA Gen, RAG, pipeline ingestion et eval
      
 Accompagner les travaux d’industrialisation et de structuration des produits d’intelligence artificielle générative, en lien avec différents cas d’usage internes. La mission inclut notamment la mise en place, l’optimisation et la supervision des chaînes de traitement de données, la conception et l’amélioration des systèmes de RAG (Retrieval-Augmented Generation), ainsi que la définition et le déploiement de pipelines d’évaluation pour mesurer la performance, la fiabilité et la qualité des modèles génératifs.
 
 
            Offre d'emploi
            
        Architecte data / IA (F/H)
      
 Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 500 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Votre rôle Nous recherchons un(e) Architecte Data & IA (FH) pour accompagner l’un de nos clients, acteur majeur du secteur assurantiel. Le poste est à pourvoir ASAP pour une durée de 6 mois dans le cadre d’un contrat CDD / Freelance chez TALEO , et est situé à Paris . Suite à cela, un recrutement interne en CDI chez notre client est privilégié. Contexte Vous intégrez un environnement dynamique traitant de la Data, de l'IA et adressant l'ensemble des métiers de l'entreprise. Vous travaillerez dans un écosystème Data comportant, entre autres, les meilleurs outils Data modernes du marché. Vous serez au cœur de projets de transformation, qui ont démarré fin 2023 et vont s'opérer sur les années à venir dans le cadre d'un plan stratégique très ambitieux. Responsabilités : Vous exercerez les missions d'Architecte Data : · Prendre en charge les dossiers d'architecture des projets en garantissant la cohérence avec la stratégie, le cadre d'architecture et la Roadmap du Patrimoine Data. · Accompagner les Product Owners/Managers et les équipes métiers dans l'évolution du Patrimoine Data. · Identifier les évolutions d'architecture induites par les nouveaux usages métiers. · Alimenter et porter les décisions d'architecture en Instance Architecture Data, ou dans les instances ad-hoc de la DSI groupe. · Alimenter la Roadmap Data dans sa dimension architecture. · Apporter une expertise technique et fonctionnelle sur les sujets IA / MLOps dans le contexte des transformations liées à la migration cloud (GCP) du Patrimoine Data. · Apporter une expertise d'intégration des outils Data et de leur gouvernance dans l'écosystème Data groupe. · Référencer et tenir à jour les patterns d'architecture Data. · Promouvoir le cadre d'architecture Data auprès du Data Office, des Architectes de la DSI et des équipes métiers. · Être en veille sur les tendances et les nouveautés technologiques des solutions Data. · Vous êtes un(e) interlocuteur(trice) privilégié(e) des métiers et par votre rôle, participez à l'éclairage des décisions stratégiques du Groupe pour l'amélioration de sa performance grâce, entre autres, à une meilleure exploitation, fiabilisation et un cheminement de qualité de la Data.
 
 
            Mission freelance
            
        Product Owner Data (F/H)
      
 Contexte Le prestataire interviendra dans un environnement hybride, combinant : • des composants legacy à maintenir et à fiabiliser, essentiels au pilotage opérationnel actuel, • et des chantiers de refonte et de modernisation à conduire dans une logique produit et Data Mesh. La mission se déroule dans un contexte de modernisation de la stack data (architecture Lakehouse) et de montée en maturité des pratiques produit au sein des équipes Data. Description Le prestataire assurera le rôle de Product Owner Data, en pilotant une équipe pluridisciplinaire (Produit, Tech, Data). Sa mission consistera à : • Conduire la refonte et la valorisation des données Ventes, depuis le cadrage des besoins métiers jusqu’à la livraison des Data Products, • Piloter la roadmap des produits data dans une logique produit et Data Mesh, garantissant gouvernance, qualité et exploitabilité, • Maintenir l’existant (legacy), en assurant la continuité de service et la fiabilité des indicateurs clés, • Collaborer avec le Product Manager et les autres PO Data pour aligner la vision, prioriser les besoins et assurer la cohérence transverse, • Animer les échanges avec les parties prenantes métiers, en mettant l’accent sur la valeur d’usage, les indicateurs de succès et la qualité des livrables. • Le prestataire participera également à la communauté de pratique Produit & Data, afin de partager les bonnes pratiques et contribuer à la montée en maturité collective. Livrables • Roadmap produit claire et priorisée (vision, jalons, backlog) • Cadrages et spécifications fonctionnelles des Data Products (règles de gestion, contrats d’interface, indicateurs de succès) • Plan de maintien et d’amélioration continue du legacy (cartographie, fiabilisation, suivi qualité, documentation) • Pilotage et suivi des développements (agilité, cérémonies, reporting d’avancement) • Documentation consolidée (catalogue, dictionnaire, fiches produit, processus de gouvernance) • Reporting régulier sur l’avancement, les risques et les arbitrages à opérer
            Mission freelance
            
        Ingénieur Cloud Azure
      
 Construire et déployer des infrastructures Cloud Public (principalement sur Microsoft Azure) pour les projets Data. Industrialiser les architectures cibles et configurer les équipements via des chaînes CI/CD automatisées. Assurer la fiabilité et la sécurité des plateformes , en mettant en place la supervision, la haute disponibilité et les bonnes pratiques de sécurité Cloud. Collaborer avec les équipes développement, sécurité et projets pour accompagner la transformation Data dans un environnement Agile.
 
 
            Mission freelance
            
        Développeur Back Data
      
 Les livrables sont Analyser des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés Comprendre l'implémentation technique et les implémenter si nécessaire Description détaillée OS : Avoir une bonne connaissance d'Unix Z/OS : Avoir des connaissances du Mainframe de façon à pouvoir : Analyser/modifier des JCL et pouvoir Modifier/charger des fichiers MVS Connaitre l'ordonnanceur OPC Shell : Pouvoir analyser/modifier des scripts shell réalisant des opérations complexes : Chargement des fichiers dump/plat/MVS données en BDD Export de données de la BDD vers des dump et/ou fichiers plats Récupération des fichiers depuis FTP/SFTP Envoi des fichiers vers FTP/SFTP SQL : Avoir un niveau expert pour comprendre et mettre en oeuvre des requêtes SQL complexes BDD : Oracle Aussi, une connaissance de la suite BI d'Oracle Discover sera un plus Transverse : Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés et en comprendre l'implémentation technique et les implémenter si nécessaire La personne sera principalement amenée à travailler en mode RUN : Analyse des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Des évolutions de scripts SQL/Shell existants sont demandées de temps en temps par le métier Le périmètre fonctionnel couvre quasiment tout l'éventail du retail : de la logistique jusqu'à la sortie de caisse Données : logistiques, référentiel, commandes, ventes, achats, promotion.. pour des magasins alimentaires et non alimentaires (équipement de la maison) en passant par des données financières de types factures, impayés. Compétences techniques : Shell - Expert - Impératif SQL - Expert - Impératif OS - Confirmé - Important Z/OS - Confirmé - Important
 
 
            Offre d'emploi
            
        Data Engineer – Azure / Snowflake / dbt
      
 Contexte & Objectif de la mission Dans le cadre du renforcement d’une équipe Data de l'un de nos clients du secteur Finance, nous recherchons un Data Engineer confirmé pour contribuer à la conception, au déploiement et à l’industrialisation des plateformes de données sur Azure et Snowflake. Vous interviendrez sur la mise en place de pipelines de données performants, l’automatisation des traitements, et l’implémentation des bonnes pratiques CI/CD, dans un environnement à fort enjeu de qualité et de performance. Rôles & Responsabilités Concevoir, développer et optimiser des pipelines de données dans un environnement Snowflake / Snowpark. Développer et orchestrer des flux via Azure Data Factory et dbt (Python). Intégrer et exploiter des API pour l’ingestion et la diffusion de données. Participer au déploiement et à la gestion de l’infrastructure via Terraform. Mettre en œuvre les pratiques CI/CD sous Azure DevOps. Automatiser les tâches récurrentes (PowerShell, Azure CLI). Contribuer à la modélisation et à l’architecture data (3NF, étoile, data warehouse). Participer à la gouvernance, la qualité et la sécurité des données (RGPD, Data Privacy). Documenter les développements et collaborer avec les équipes techniques et métiers. Environnement technique Azure – Snowflake – dbt (Python/Snowpark) – Azure Data Factory – PowerShell – Azure CLI – Terraform – Azure DevOps – PowerDesigner – Git
 
 
            Mission freelance
            
        Tech Lead DATA AZURE / OpenAI
      
 Full remote Durée : 6 mois renouvelable Niveau : Senior / +10 ans d’expérience Le rôle : Piloter la conception et la direction technique d’une solution interne stratégique, data-driven et IA Concevoir l’architecture logicielle et encadrer les choix techniques dans Azure Superviser la mise en œuvre CI/CD et le déploiement des environnements Collaborer avec les équipes Data, AI, et Software pour garantir la cohérence technique Assurer l’intégration avec les environnements SAP et Salesforce Profil recherché : Excellente maîtrise de Microsoft Azure (Data Factory, Synapse, Functions, DevOps...) Expertise en architecture logicielle, Data Engineering et Machine Learning Solides compétences en conception de bases de données SQL / NoSQL Expérience confirmée en intégration d’écosystèmes complexes Leadership technique et capacité à fédérer des équipes pluridisciplinaires
 
 
            Mission freelance
            
        Ingénieur Data engineering
      
 CONTEXTE : Le département Data IA (DaIA) est en charge de mettre à disposition des métiers un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA en développant notamment une plateforme d’enrichissement des métadonnées des contenus (IA & GenAI) Pour cela, nous recherchons une prestation de Data engineering pour nous aider MISSIONS à concevoir, construire et gérer notre infrastructure AWS : Développement de la plateforme de microservices AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les media • Assurer la qualité, la fiabilité et l'accessibilité des données. • Développer les pipelines de traitement de données avec orientation media • Collaborer avec les équipes de data science pour comprendre les besoins en données et mettre en place les solutions appropriées. • Recueillir les besoins avec des métiers ou clients. • Assurer la maintenance et l'optimisation des systèmes de données existants. Livrables attendus : Des analyses, développements et documentations de qualité. Expertises demandées pour la réalisation de la prestation : • Minimum de 4 ans d’expériences significative dans le type d’expertise demandé • Être dans une communication de grande qualité et savoir discuter dans des situations tendues. • Avoir une expérience efficace et rigoureuse de la gestion de produits. • Avoir une capacité à travailler de manière autonome et à gérer efficacement plusieurs tâches simultanément. • Être force proposition et savoir remonter les alertes aux responsables projet ou technique. • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaisse de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et l’utilisation d’API externe : CONFIRME • Connaissance des langages de programmation et de Génie Logiciel (Python) : • Programmation Orientée Objet : MAITRISE • Connaissance et utilisation des Design Patterns standard : MAITRISE • Frameworks/Librairies de tests : MAITRISE • Observabilité applicative : CONFIRME • Mesures de performances : CONFIRME • Expérience avec les bases de données SQL et Graph : CONFIRME • Connaissance des technologies de conteneurisation : o Utilisation de la CLI Docker : MAITRISE o Création et optimisation des images : MAITRISE o Utilisation de docker-compose : CONFIRME o Utilisation de la CLI Kubernetes : MAITRISE o Création et utilisation des déploiements Kubernetes : CONFIRME o Résolution de problèmes sur environnement Kubernetes : CONFIRME o Utilisation de Helm pour le déploiement de workload sur Kubernetes : CONFIRME • Compétence des technologies de CI/CD et Infra as Code : o Expérience du process GitFlow : MAITRISE o Utilisation des commits sémantiques/feature branches : MAITRISE o Mise en place de pipelines/jobs : CONFIRME o Mise en place de process GitOps : CONFIRME o Utilisation des concepts, modules et templates Teraform : MAITRISE o Utilisation de Ansible : CONNAISSANCE o Capacité à travailler en équipe et à communiquer efficacement (Agile, JIRA) : MAITRISE
 
 
            Offre d'emploi
            
        Consultant(e) AMOA Recette Décisionnel 
      
 Contexte du projet : Dans le cadre du maintien en conditions opérationnelles et de l’évolution d’applications décisionnelles stratégiques , nous recherchons pour notre client bancaire, un Consultant expert en Recette & AMOA Décisionnel (H/F). Vous accompagnez les équipes métiers et techniques dans les activités de recette , de conception fonctionnelle et de support à la production applicative , au sein d’un environnement data et BI à fort enjeu. Le projet s’inscrit dans une démarche de transformation et d’industrialisation des processus décisionnels, en lien avec les équipes MOA, MOE, Data Platform et Métiers . Activité de Recette : Élaborer et rédiger le plan de tests (cas de tests, scénarios, jeux de données) Exécuter les différents types de tests : recette fonctionnelle, d’intégration et de non-régression Analyser les résultats : conformité, détection et qualification des anomalies Déclarer et suivre les anomalies dans les outils Banque de France Produire les rapports de tests exécutés et bilans de recette Activité de Conception fonctionnelle : Collecter et analyser le besoin métier et rédiger les cas d’usage Réaliser les modélisations fonctionnelles (diagrammes d’activités, de séquence, architecture fonctionnelle) Rédiger les spécifications fonctionnelles générales et détaillées , ainsi que les règles de gestion et exigences non fonctionnelles Consigner les livrables dans JIRA / Confluence Activité de Support à la Production : Analyser les incidents de production (fonctionnels et métiers) Assurer le suivi et la vérification des correctifs Contribuer au pilotage et à la communication autour des incidents
 
 
            Offre d'emploi
            
        Data Scientist - IA Generative 
      
 Le consultant interviendra en tant que Data Scientist pour accompagner les travaux de consolidation et d'industrialisation de nouveaux services pour les directions métier. Le terrain de jeux sera les technologies IA Gen, les RAG et les chaines d'ingestions de corpus documentaires hétérogènes. Le DS sera en responsabilité de la conception (en collaboration avec les interlocuteurs métiers, Data et DSI) et le développement de solutions répondant aux besoins métier. Il réalisera les études de faisabilité, de risque et de performance nécessaire pour la maturation du Use Case à travers le cycle de vie (incubation, industrialisation, run). Livrables : Pipeline d'acquisition, préparation et traitement de données (structurées et non structurées) Pipeline d'entrainement, test et validation, Composants d'inférence Automatisation de pipeline et workflow Mécanismes et process de monitoring de la performance API Prototypes et démonstrateurs Plan d'experiences et de tests Documentation technique et fonctionnelle Rapport de veille technologique et technique
 
 
            Offre d'emploi
            
        Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans
      
 🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
 
 
            Mission freelance
            
        Expertise Data Assurance (DSN)
      
 Vous interviendrez dans les chantiers de transformation afin d'accompagner les travaux sur l'usage des données pouvant provenir des DSN. A ce titre, vos missions consisteront à contribuer: Concevoir un modèle de données Socle des données et de l'implémenter dans le DataWarehouse Recueil des usages de Données DSN Réalisation de l’analyse fonctionnelle et technique Proposition de modélisation fonctionnelle des données, ayant un sens métier Proposition d’Architecture fonctionnelle et technique pour l’implémentation Développement du socle Déploiement du socle auprès des métiers et utilisateurs de ces données Partage de la connaissance du fonctionnement de la DSN, du modèle réalisé et de l’implémentation Pilotage du chantier pour tenir un engagement fort d’implémentation Animation et coordination des ateliers et travaux entre les parties prenantes Organisation et validation des phases de tests et de recette. Suivi des actions, des risques et des décisions pour garantir le bon déroulement des projets
Déposez votre CV
-  Fixez vos conditions Rémunération, télétravail... Définissez tous les critères importants pour vous. 
-  Faites-vous chasser Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque. 
-  100% gratuit Aucune commission prélevée sur votre mission freelance. 
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres