Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 133 résultats.
CDI

Offre d'emploi
Data Engineer H/F

HN SERVICES
Publiée le
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI

45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Data Engineer expérimenté à sénior pour intervenir sur un projet Data pour l’un de nos clients situé à Aix-en-Provence. Contexte et mission : Dans le cadre du renforcement de l’équipe Data, vous serez intégré.e à une squad dédiée à la création d’une infrastructure robuste pour le produit DATA. Vous participerez à la conception et au développement de processus d’ingestion, de transformation et d’exposition des données sur la plateforme Google Cloud Platform (GCP). Vous collaborerez étroitement avec d’autres équipes pour : Mettre en place les jobs d’ingestion et de préparation des données. Développer des pipelines de données performants et maintenables. Exploiter les outils de l’écosystème cloud : Composer, dbt, BigQuery. Contribuer à l’amélioration continue des capacités de livraison du produit DATA. Environnement technique : GCP BigQuery, Linux, Python, SQL, dbt, Composer.
Freelance

Mission freelance
246242/Data Scientist/IA Gen/Machine Learning / Deep Learning - Nantes

WorldWide People
Publiée le
IA Générative

3 mois
Nantes, Pays de la Loire
Data Scientist/IA Gen/Machine Learning / Deep Learning - Nantes Compétences et expériences demandées : Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. Connaissance de SQL Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Pratiquer une veille active sur vos domaines de compétence. Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe Objectifs et livrables Activité principales attendues : Machine Learning / Deep Learning Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. Création et production de modèles d'apprentissage automatique industrialisables Traitement de données à grande échelle pour la création de jeux de données d'entraînement Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen Prompt engineering Bench via des solutions d'évaluation des modèles d'IA Gen Optimisation des solutions (paramétrage des modèles) Compétences demandées Compétences Niveau de compétence machine learning Confirmé python Confirmé IA générative Confirmé
Freelance

Mission freelance
Consultant Data gouvernance Collibra (BCBS 239)

STHREE SAS pour COMPUTER FUTURES
Publiée le
Collibra
Data management

9 mois
Île-de-France, France
Contexte : Cadre réglementaire pour les banques : Exigences Bâle 2 renforcée, besoin de données fiables pour piloter les risques et pression sur qualité et traçabilité de données Objectifs : Implémentation de Collibra (choix du siège) comme levier RDARR : La plateforme de gouvernance des données ❖ Glossaire, dictionnaire, référentiels ❖ Rôles et responsabilités (ownership) // Documentation et workflows ❖ Data lineage ❖ Cohérence et transparence des données utilisées Missions Phase Data Owner Assignment : suivant la définition théorique que nous avons donné en interne sur les rôles et Responsabilités, 4 profils : Data Owner, Stewart, Producer et User ❖ Préparer et faire valider la matrice des R&R auprès des Data Owner à partir du scope CONNECT ❖ Faire valider les Rôles et Responsabilités auprès des Data Owner sur les IDP Connect (Local file, Mapping table, RDT, Scoring, Rating …) Phase Alimentation Collibra : ❖ « Ecosystème input CONNECT » Use case de l’implémentation dans Collibra) 1/ Préparer les différents templates (par entités CONNECT) pour Collibra avec les besoins fonctionnels demandés pour Collibra 2/ Identifier les sources de données (avec l’aide de spécifications techniques) 3/ Faire compléter le lineage de data par l’IT 4/ Tester les templates sur K dans l’import Collibra et valider les schémas (Vérifier que le lineage fonctionne correctement avec les données attendues en provenance des systèmes) 5/ Mettre en production les templates 6/ Effectuer et Organiser les correctifs nécessaires en partenariat avec l’IT. 7/ Participer au meetings bi-weekly avec le siège sur l’avancement des travaux – Fournir l’avancement nécessaire dans JIRA et/ou au Data Officer ❖ «Ecosysteme Autres » Selon le siège, « nous » livrons des spreadsheets pour le compte du regulatory reporting. Cadrage encore flou. Cependant l’idée serait d’auditer certains services pouvant « toucher » aux outils du siège (suivant liste pré définie) afin de vérifier que des données sont envoyées au siège et par quel biais. - Prendre les outils recensés par le siège (Check si ces outils génèrent des flux pour les besoins des reportings règlementaires au siège) - Sonder sur les User de ces outils et les flux existants - Organiser la description de ces flux en vue de l’intégration dans Collibra . - Vérifier que le flux soient déclarés en interne dans la cartographie des outils avec architecte IT
CDI

Offre d'emploi
Consultant Data Platform Imagino F/H (H/F)

█ █ █ █ █ █ █
Publiée le
SQL

30k-50k €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
DATA MESH PLATFORM MANAGER SENIOR F/H

SMARTPOINT
Publiée le
AWS Cloud
Azure
CI/CD

12 mois
100-600 €
Île-de-France, France
Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform – GDP) comme un produit interne, en garantissant : Sa livraison technique Son adoption à l’échelle de l’entreprise Son excellence opérationnelle Son amélioration continue RESPONSABILITÉS CLÉSConstruction et Livraison de la Plateforme (Responsabilité principale)1. Responsabilités Concevoir et implémenter l’architecture de la plateforme Data Self-Service Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité, accès self-service) Définir et faire respecter les standards techniques et les patterns d’architecture Garantir la scalabilité, la performance et la sécurité Prendre des décisions techniques hands-on et valider les solutions 2. Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme Architecture Cloud et Infrastructure3. Responsabilités Piloter la conception et l’exploitation d’architectures cloud et hybrides avec le Group Data Architect Coordonner avec l’équipe Group Data Delivery l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Piloter l’automatisation et l’Infrastructure as Code Garantir les exigences de sécurité et de conformité 4. Livrables attendus Blueprint d’architecture cloud (avec le Group Data Architect) Framework de sécurité et de gestion des accès Pilotage Delivery & Exécution5. Responsabilités Être responsable du cycle de vie de livraison de la plateforme Définir le backlog et le processus de priorisation Gérer les releases et les déploiements en production Suivre la performance et la fiabilité Gérer les risques et incidents techniques 6. Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et gestion des versions Dashboards de suivi delivery Indicateurs SLA / métriques de fiabilité Déploiement & Adoption par les Domaines7. Responsabilités Déployer la plateforme dans les différents domaines métiers Permettre aux équipes domaine de construire leurs data products Déployer le modèle opérationnel Data Mesh Accompagner l’onboarding et l’adoption Résoudre les problématiques d’adoption opérationnelle 8. Livrables attendus Framework et processus d’onboarding des domaines Guidelines du cycle de vie des data products Playbooks d’accompagnement des domaines Indicateurs d’adoption et d’usage Supports de formation et documentation d’onboarding Product Management (orienté usage) & Amélioration Continue9. Responsabilités Recueillir les besoins utilisateurs et exigences plateforme Définir la vision produit et la roadmap Mesurer l’usage et la création de valeur Améliorer l’expérience développeur et utilisateur 10. Livrables attendus Vision produit et proposition de valeur KPIs plateforme et métriques d’adoption Boucles de feedback utilisateur et backlog d’amélioration Roadmap d’évolution de la plateforme Documentation, Standardisation & Gouvernance11. Responsabilités Documenter les capacités et processus de la plateforme Garantir la conformité avec la gouvernance fédérée des données du Groupe 12. Livrables attendus Référentiel documentaire de la plateforme Standards techniques et guides d’implémentation Framework de gouvernance et conformité Playbooks de bonnes pratiques Communication Opérationnelle & Reporting Exécutif13. Responsabilités Communiquer sur l’avancement et l’impact de la plateforme Fournir un reporting de niveau exécutif Assurer l’alignement des parties prenantes 14. Livrables attendus Dashboard exécutif du projet Dashboards de performance plateforme Présentations en comité de pilotage Suivi des décisions, risques et incidents Promotion Interne & Évangélisation15. Responsabilités Promouvoir la valeur de la plateforme dans l’organisation Soutenir les initiatives d’adoption interne Construire une communauté plateforme 16. Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations plateforme et portfolio de cas d’usage Expérience requise Minimum 15 ans d’expérience en data platform, data engineering ou architecture Expérience prouvée dans la construction et livraison de plateformes data en production Forte expérience hands-on en delivery technique Expérience en platform engineering ou data engineering avancé Expérience en environnement grand groupe ou multi-entités Expérience pratique du Data Mesh obligatoire Compétences techniquesArchitecture & Engineering Architecture data distribuée Conception de systèmes distribués Infrastructure as Code Pratiques DevOps / DataOps / CI/CD Ingénierie performance et scalabilité Cloud & Infrastructure Expertise avancée AWS et Azure Architectures hybrides et on-premise Sécurité et gouvernance cloud Plateforme Data Data products & gestion du cycle de vie Pipelines et orchestration Gestion des métadonnées et catalogues Frameworks de gouvernance data Observabilité data Product & Delivery Approche produit appliquée aux plateformes techniques Gestion roadmap & backlog Méthodologies Agile Développement orienté valeur Soft Skills critiques Leadership technique et opérationnel fort Orientation exécution et delivery Capacité à intervenir de manière hands-on dans des environnements complexes Excellente communication transverse Sens fort de la responsabilité Esprit analytique et pragmatique Capacité d’influence sans autorité hiérarchique directe Vision stratégique avec focus opérationnel Gestion des parties prenantes au niveau exécutif et opérationnel Anglais courant obligatoire (écrit et oral) Indicateurs de succès Plateforme livrée et opérationnelle en production Adoption par les domaines métiers Nombre et qualité des data products déployés Fiabilité et performance de la plateforme Satisfaction et usage des utilisateurs Réduction du time-to-market des cas d’usage data
CDI
Freelance

Offre d'emploi
Chef.fe de projet Data senior

Atlanse
Publiée le
Agile Scrum
Gestion de projet
Méthode Agile

6 ans
55k-65k €
400-550 €
Paris, France
En tant que Chef.fe de projet Data senior – flux de données, vous pilotez la structuration, l’intégration et la fiabilisation des flux alimentant une base annuaire centrale. Votre rôle Cadrage et structuration des flux data · Piloter les études de cadrage avec les partenaires internes et externes · Formaliser les besoins fonctionnels et les exigences en matière de qualité de données · Challenger les demandes du commanditaire au regard des contraintes techniques et d’architecture · Définir les formats d’échange et standards d’intégration (API, fichiers, JSON…) · Identifier les risques (techniques, organisationnels, partenaires) · Définir la feuille de route projet en cohérence avec les enjeux stratégiques et politiques Organisation et fiabilisation des intégrations · Structurer une base annuaire alimentée par des flux multiples (API, fichiers, imports batch…) · Superviser l’intégration progressive de nouvelles sources et fournisseurs de données · Mettre en place ou cadrer les processus de nettoyage, normalisation et déduplication · Définir les mécanismes d’automatisation et de contrôle des flux · Garantir la qualité, la cohérence et la traçabilité des flux intégrés Pilotage projet et coordination transverse · Coordonner les équipes métiers, techniques et partenaires externes · Arbitrer les priorités, suivre les charges, délais et budgets · Organiser les phases de recette et valider la conformité aux exigences définies · Assurer la gouvernance projet et le reporting auprès des instances décisionnelles · Défendre les contraintes techniques et les positions du client face aux parties prenantes Supervision et cohérence globale · Challenger les choix d’architecture en lien avec les équipes techniques · Veiller à la robustesse et à la performance des flux de données · Superviser les mécanismes d’échanges inter-applicatifs · Assurer la cohérence globale entre l’application centrale et les applications connectées
Freelance

Mission freelance
Data Product Manager – Data & BI Platform

Comet
Publiée le
Microsoft Power BI

1 an
400-550 €
Île-de-France, France
Dans le cadre de la transformation Data de Saint-Gobain Mobility , nous recherchons un Data Product Manager senior pour piloter plusieurs initiatives stratégiques autour des plateformes Data & BI . Vous interviendrez au sein d’un environnement international, en collaboration étroite avec des architectes data, data engineers, équipes BI et métiers (Sales, Finance, Manufacturing, Supply Chain, Purchasing) . L’objectif : structurer et piloter un portefeuille de produits data alignés avec les besoins business et la stratégie Data du groupe. Vos missions Piloter l’étude et le cadrage de projets Data & BI Recueillir et formaliser les besoins métiers Animer des workshops avec les stakeholders Structurer l’architecture fonctionnelle et les flux data Concevoir les modèles de données et business layers Coordonner les équipes Data Engineers / Architectes / BI Évaluer la valeur business des solutions proposées Préparer les roadmaps, budgets et planning de delivery Formaliser les propositions de lancement projet Environnement & sujets clés Plusieurs initiatives structurantes sont en cours : Migration vers une Cloud Data Platform Migration MicroStrategy → Power BI Structuration des produits data dans une logique Data-as-a-Service Cas d’usage métiers : Sales Finance Manufacturing Supply Chain Purchasing
Freelance

Mission freelance
Expert Marketplace / Product Data

Okara
Publiée le
Audit
E-commerce
Gestion des risques

3 mois
400-850 €
Lille, Hauts-de-France
Le contexte : Notre client, acteur de référence de l’équipement de la maison, transforme sa Marketplace en un environnement nativement sécurisé. L'enjeu est de taille : passer d'une vigilance artisanale à une conformité industrielle. Nous recherchons un consultant senior pour piloter ce passage au "Safety by Design" . Les enjeux opérationnels : Face à la volumétrie des inventaires, la modération manuelle a atteint ses limites. Vous intervenez pour structurer des mécanismes de blocage natifs dès le référencement. Le projet s’articule autour de la cohérence des catalogues (Modèle Commun) et l’intégrité des données réglementaires avant toute mise en ligne. Votre périmètre d'intervention : Directement rattaché à la direction Marketplace, vous agissez comme un véritable partenaire stratégique pour : Audit & Challenge : Analyser la robustesse des processus actuels et arbitrer le curseur entre fluidité business et "Business Stoppers". Feuille de route : Challenger les choix de blocage (gel des offres vs blocage catalogue) au regard des réalités du marché. Sourcing technologique : Identifier et recommander les solutions de filtrage automatisé (IA, reconnaissance d’images, API de conformité) les plus pertinentes.
CDI

Offre d'emploi
ML/Data Engineer H/F

█ █ █ █ █ █ █
Publiée le
Apache Airflow
CI/CD
Github

Ville de Paris - Archives de Paris - Centre annexe, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : qojvej3era
Freelance

Mission freelance
ACHETEUR Domaine Market Data/

WorldWide People
Publiée le
Pilotage

12 mois
Paris, France
ACHETEUR Domaine Market Data . Acheteur senior spécialisé dans les données de marché, avec une solide expérience auprès des fournisseurs de données financières et une excellente compréhension des cas d'utilisation en salle des marchés. Localisation Paris / Télétravail Durée de la mission : 3 ans Mission : · Développer et entretenir des relations de proximité avec les lignes métier pour s’assurer de comprendre leur besoin en market data et négocier suivant leurs contraintes. · Apporter une expertise fonctionnelle et une connaissance approfondie de l'industrie des données de marché (Market Data) et de ses spécificités pour répondre aux besoins métiers. · Entretenir des relations avec les fournisseurs afin de comprendre leurs offres très spécifiques et très techniques, pour identifier des sources alternatives. · Analyser et challenger les besoins des clients internes et leur apporter votre expertise achats tout en garantissant la conformité avec les règles de conduite du Groupe applicables aux relations avec les fournisseurs. · Analyser les contrats des fournisseurs pour s’assurer de l’adéquation du contrat aux besoins métiers exprimés · Comprendre les usages des Data des utilisateurs pour s’assurer de la conformité des usages aux contrats fournisseurs associés · Négocier des contrats dans le cadre des renouvellements ou révisions des contrats de Market Data avec les fournisseurs externes pour le compte et au mieux des intérêts des lignes métier. · Suivre la conformité des contrats avec le service EI Juridique et EI Achats (Analyses de risques fournisseurs) · Etre force de proposition d’optimisation en anticipant les risques, les tendances et les opportunités. · Pour chaque contrat : · Réaliser une synthèse présentant le besoin, la réponde au besoin avec un support contractuel et une synthèse contrat sur les demandes de market data formulées par les lignes métiers. · S’assurer de bien comprendre, de challenger et de documenter l’utilisation faite des données souscrites par les lignes métiers notamment s’il s’agit d’alimenter des applications et des référentiels. · Assurer un reporting auprès des équipes de facturation et s’assurer d’une bonne coordination avec les équipes techniques si besoin. · Intégration des contrats dans les applications internes et mise à jour des informations régulières.
Freelance

Mission freelance
Ingénieur Réseau Sécurité (H/F)

TIBCO
Publiée le
Réseaux
Supervision

1 mois
Orléans, Centre-Val de Loire
Vos attentes * Rejoindre une entreprise à impact pour créer un meilleur demain en prenant soin de l'économie, de l'humain et de la planète ? * Entrer dans une société française qui maitrise son destin * Intégrer une équipe à taille humaine ? * Vous aimez l’autonomie, la création, la prise d’initiative, l’esprit d’équipe ? Mission Nous recherchons pour un de nos clients, acteur majeur dans le domaine de la santé, un Ingénieur Réseau Sécurité (H/F) Vous aurez pour taches * Administrer les équipements réseaux (routeurs HUAWEI, cœurs HUAWEI, switch HUAWEI-CISCO-ALCATEL-ARUBA, WIFI HUAWEI-CISCO, firewall) * Superviser les équipements réseaux et les liaisons LAN et WAN, * Diagnostiquer et résoudre les dysfonctionnements du domaine de compétences * Mener les projets de renouvellement des technologies déployées en fonction d’une politique d’obsolescence, * Assurer la sécurité des équipements sous sa gestion en respectant la politique de sécurité du groupe * Élaborer des bilans et des analyses de performances des systèmes * Proposer, en collaboration avec l’architecte, des solutions d’amélioration de l’existant * Proposer la surveillance des points sensibles de l’infrastructure en utilisant les outils de supervision * Participer au maintien en condition opérationnel et de sécurité, * Rédiger des documents techniques, procédures et modes opératoires. * Accompagner et former l’équipe Centre de Services et de Proximité
Freelance

Mission freelance
DEVIENS #AUTEUR Les VPN

Editions ENI
Publiée le
Administration systèmes et réseaux
VPN

8 mois
100-300 €
Saint-Herblain, Pays de la Loire
Vous êtes expert(e) en réseaux et sur les VPN ? Vous avez accumulé une expérience professionnelle en entreprise et vous ressentez l'envie de la transmettre ? Passez du statut de professionnel à celui d'auteur reconnu en écrivant un livre ! Aux Éditions ENI nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre ouvrage qui portera sur les VPN . Pourquoi franchir le pas de l'écriture ? Devenez une référence dans votre domaine : Publier un livre chez un éditeur spécialisé est le levier le plus puissant pour asseoir votre crédibilité et votre personal branding dans l'écosystème IT. Valorisez votre expérience : Synthétisez vos années de pratique pour aider d'autres professionnel(le)s à monter en compétences. Notre accompagnement éditorial : Nous mettons notre savoir-faire au service de votre expertise pour transformer vos idées en un ouvrage structuré et percutant : Méthodologie éprouvée : Aide à la définition du sommaire, réalisation d'un essai, conseils d'écriture. Suivi personnalisé : Un interlocuteur dédié vous accompagne à chaque étape du projet. Relecture et correction : Nos équipes s'assurent que la forme soit aussi parfaite que le fond. Le profil recherché : Vous êtes formateur(trice), consultant(e), administrateur(trice) système et réseaux, expert(e) en cybersécurité ... et les VPN n'ont aucun secret pour vous. Vous maîtrisez votre sujet et, surtout, vous aimez l'expliquer. La rémunération est proposée sous forme de forfait OU royalties OU mix des deux.
Freelance

Mission freelance
Data Architect Databricks Nantes/pa

WorldWide People
Publiée le
Databricks

12 mois
Nantes, Pays de la Loire
Data Architect Databricks Nantes Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…). Prestation de Data Architect •Il définit l’architecture Data pour son périmètre, en fonction des besoins métier, en tenant compte de l’architecture du SI, des règles de gouvernance Data et plus globalement des standards et des communs définis au niveau de son organisation. •Sur la partie Data, il définit les normes et standards en matière de disponibilité, d’intégrité, de confidentialité et de traçabilité dans l'objectif de maximiser la valeur que l’organisation tire de ces données. •C’est lui qui pilote la mise en oeuvre des principes d’architecture Data dans le SI et garantit sa conformité, sa performance, sa pérennité, son adéquation aux besoins métier ainsi que l’optimisation du cycle de vie de la donnée. •Le Data Architect préconise et valide les principes de modélisation des données pour qu’ils soient adaptés aux usages de façon durable. •Il organise la gestion des référentiels Data et facilite leur maintenance. Tâches : •Contribue à l’élaboration de la stratégie Data de la donnée alignée avec la stratégie business et en cohérence avec la roadmap de l’Architecte d’entreprise. •Contribue aux choix technologiques qui portent le cycle de vie de la donnée. •Assure une veille technologique active sur les solutions innovantes et particulièrement en matière de Data et d’IA. •Définit les règles, normes et standards en matière de stockage et de traitement de la donnée. •Coordonne les travaux d’architecture Data et en assure la gouvernance. •Assure la cohérence du modèle Data tout au long du cycle de vie des projets. •Répond aux exigences réglementaires liées à la Data. Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…).
CDD
CDI
Freelance

Offre d'emploi
Chef de projet solution de gestion du patrimoine

KEONI CONSULTING
Publiée le
Big Data
Gestion de projet
Management

18 mois
20k-60k €
100-450 €
Nantes, Pays de la Loire
CONTEXTE Le candidat interviendra sur la mise en œuvre d’une solution de gestion du patrimoine. Ce projet a 2 volets - Solution : conception et déploiement d’outil - Data : mise en œuvre de processus de Data Management s’appuyant sur des solutions exis tantes Les objectifs sont d’harmoniser les processus de travail, de les soutenir via des outils et d’implanter . Une vraie culture de gestion de la donnée et de sa qualité. La personne retenue pour exercer ces missions sera appuyée d’une directrice de projets et collaborera avec l’activité DATA. LES MISSIONS • Cadrer l’organisation des projets, • Réaliser des études et concevoir des solutions. La rédaction de cahier des charges pourra être requise, • Accompagner à la mise en œuvre et au déploiement de futurs outils ou nouveaux modules • Fédérer et appuyer l’adoption de ceux-ci, • Construire en lien avec l’équipe Data une vraie gouvernance de la donnée sur les projets et les différents outils, • Assurer sa mise en œuvre et l’acculturation des équipes. La personne retenue pour exercer ces missions sera appuyée d’une directrice de projets de et collaborera avec le service DATA.
Freelance
CDI

Offre d'emploi
Architecte DATA CMDB SERVICE NOW

OBJECTWARE
Publiée le
ServiceNow

2 ans
Île-de-France, France
Dans le cadre de la mise en conformité avec les recommandations de la Banque Centrale Européenne (BCE) sur la fiabilité des référentiels IT, notre client engage un programme d’amélioration et de gouvernance de sa CMDB Groupe et de ses référentiels techniques . L’objectif de cette mission est de concevoir et mettre en œuvre une architecture de données robuste et gouvernée , permettant d’assurer la qualité, la cohérence et l’exploitabilité des informations relatives aux actifs IT. Le consultant interviendra au cœur du dispositif pour structurer et améliorer le modèle de données CMDB , industrialiser l’intégration des sources d’inventaire et renforcer la gouvernance des données techniques. Architecture et modélisation des données CMDB Concevoir et optimiser le modèle de données des référentiels IT techniques (Configuration Items, relations et métadonnées). Simplifier et rationaliser les structures existantes afin d’améliorer la lisibilité et la maintenabilité du modèle. Garantir l’évolutivité de l’architecture des données pour intégrer de nouvelles sources d’inventaire et répondre aux besoins futurs. Identification et réconciliation des données Définir et implémenter les règles d’identification et de réconciliation (IRE) au sein de ServiceNow CMDB . Déterminer les clés d’identification des Configuration Items afin d’assurer l’unicité et la cohérence des données. Mettre en place des mécanismes de consolidation des informations issues de multiples sources d’inventaire. Gestion des sources d’inventaire Identifier et qualifier les sources de données techniques alimentant les référentiels IT . Définir les sources de vérité pour chaque type d’information. Cartographier et structurer les flux d’alimentation des référentiels IT . Qualité des données et gouvernance Définir et mettre en œuvre une stratégie de Data Quality pour la CMDB : déduplication fiabilité des données complétude fraîcheur des informations gestion de l’obsolescence. Mettre en place des indicateurs de qualité et des tableaux de bord de suivi . Gouvernance des référentiels IT Appliquer les principes de Master Data Management (MDM) au contexte des référentiels IT. Définir les rôles et responsabilités autour des données (Data Owner, Data Steward). Structurer un cadre de gouvernance des référentiels IT documenté et partagé. Collaboration transverse Travailler en étroite collaboration avec les équipes : ITSM / CMDB ServiceNow Discovery équipes MDM sécurité IT infrastructures et exploitation. Accompagner les équipes responsables des inventaires techniques et outils de découverte . Reporting et produits de données Développer des produits de données exploitant les référentiels IT pour répondre aux besoins de reporting et d’audit. Contribuer à la production d’indicateurs et de tableaux de bord permettant de piloter la qualité et la fiabilité des données.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6133 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous