L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 956 résultats.
Mission freelance
Ingénieur Data Senior +8 ans
Sapiens Group
Publiée le
Azure
Azure Data Factory
Databricks
3 mois
550-630 €
Boulogne-Billancourt, Île-de-France
Contexte Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes d'une grande entreprise médias dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions Concevoir et développer des pipelines d'ingestion de données via Azure Data Factory. Créer et optimiser des flux de transformation de données en PySpark/Python. Maintenir et développer de nouveaux indicateurs de qualité de données. Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. Garantir la qualité du code et veiller au respect des normes de développement au sein de l'équipe. Implémenter des tests unitaires et assurer la fiabilité des solutions. Mettre en place des solutions de monitoring et de supervision pour l'application Data-RH. Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci. TJM : 600-630 €
Offre d'emploi
Data Engineer Streaming
KLETA
Publiée le
Apache Kafka
Apache Spark
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Change Manager Data & Cloud – Secteur Assurance (H/F)
CAPEST conseils
Publiée le
Business Object
Conduite du changement
Dataiku
3 mois
Paris, France
Dans le cadre d’un programme de transformation data d’envergure chez un acteur majeur du secteur de l’assurance, nous recherchons un Change Manager Data & Cloud afin d’accompagner les équipes métiers dans l’adoption des nouveaux usages liés à la donnée. Le programme vise à moderniser l’écosystème data, notamment via la migration d’applications vers des environnements cloud et SaaS , et à favoriser une culture data-driven au sein des différentes directions métiers. Vous interviendrez à l’interface entre les équipes data, IT et métiers , avec un rôle clé de vulgarisation et d’accompagnement au changement. Vos missionsAccompagnement à la transformation data Définir et déployer la stratégie de conduite du changement autour des nouveaux outils et usages data. Identifier les impacts organisationnels et métiers liés aux migrations vers des solutions cloud et SaaS . Mettre en place des plans d’adoption pour favoriser l’appropriation des solutions data. Acculturation et vulgarisation de la data Traduire les sujets techniques en messages accessibles pour les métiers . Promouvoir la culture data et les usages analytiques dans les différentes directions. Concevoir et animer des ateliers, démonstrations et formations utilisateurs . Produire des supports de communication et de pédagogie (guides, newsletters, webinars). Adoption des outils analytiques Accompagner les métiers dans l’utilisation des solutions data et BI : Business Objects Tableau Dataiku Objectif : démocratiser l’accès à la donnée et faciliter l’autonomie des métiers dans l’analyse. Coordination avec les équipes techniques Assurer le lien entre les équipes data, IT et les utilisateurs métiers . Contribuer à l’amélioration de l’expérience utilisateur autour des outils data. Participer à la structuration des bonnes pratiques et de la gouvernance data . Profil recherchéExpérience 5 ans ou plus d’expérience en conduite du changement, transformation digitale ou data . Expérience dans des environnements BI, analytics ou data platforms . Une connaissance du secteur assurance ou financier est appréciée. Compétences Capacité à vulgariser des sujets techniques complexes . Bonne compréhension des environnements cloud, SaaS et data analytics . Expérience avec des outils de data visualisation ou BI . Excellentes capacités de communication, animation d’ateliers et gestion des parties prenantes . Qualités attendues Sens du service et orientation métier. Leadership et capacité à embarquer les équipes. Autonomie et esprit d’initiative. Forte appétence pour les sujets data et transformation digitale . Environnement de la mission Secteur : Assurance Environnement : Transformation data et migration cloud Outils : Business Objects, Tableau, Dataiku Mode de travail : interaction forte avec les équipes data, IT et métiers Quelques déplacements à prévoir occasionnellement en province.
Offre d'emploi
Lead Administrateur Système Linux & Infrastructure (H/F)
Linkup Partner
Publiée le
Administration systèmes et réseaux
Plan de reprise d'activité (PRA)
1 an
60k-71k €
500-560 €
Paris, France
Dans le cadre du renforcement d'une équipe infrastructure, nous recherchons un(e) Administrateur(trice) Systèmes expérimenté(e) pour accompagner l’évolution et la sécurisation des environnements techniques. Vos missions Optimiser la supervision de l’infrastructure globale en mettant en œuvre un système de monitoring robuste et pérenne afin de garantir la disponibilité et la performance des applications. Définir et implémenter des procédures de sauvegarde fiables, et rédiger un Plan de Reprise d’Activité (PRA). Réaliser régulièrement des tests de restauration en conditions proches de la production afin d’en garantir l’efficacité. Mettre en place des mécanismes de redondance pour assurer la haute disponibilité des applications critiques. Documenter l’infrastructure (serveurs, gestion des adresses IP, architecture) afin d’en assurer la maintenabilité et la traçabilité. Assurer la maintenance et l’évolution continue de scripts et d’applications internes. Fournir un support technique réactif et efficace aux utilisateurs. Administrer l’environnement Microsoft 365 (gestion des utilisateurs, groupes, droits et supervision des services). Contribuer à l’amélioration continue des infrastructures hybrides (cloud et on-premise/bare metal). Assurer un rôle de lead technique : animation, encadrement et montée en compétences de l’équipe. Accompagner les équipes projets dans leurs démarches d’intégration continue (CI) et de mise en production. Compétences techniques : Containerisation (Docker) et Virtualisation (Proxmox/QEMU) Scripting en BASH / Python / Ruby Langage procédural (Python) Maitrise l’outil Git Maitrise de Linux (Debian) avec les commandes et outils de base (htop, curl, nmcli, lsusb, dmesg) Linux (Kernel, InitramFS) Comprend la couche OSI et les principes fondamentaux du réseau Anglais
Offre d'emploi
Développeur Data BI/Cybersécurité (min 7 ans d'expérience )H/F
TOHTEM IT
Publiée le
36 500-45k €
Toulouse, Occitanie
Ta mission Tu rejoins une équipe en charge de la gouvernance et des risques IT pour renforcer et fiabiliser les outils de reporting liés aux activités sécurité. Ton rôle sera clé : améliorer l’existant, concevoir de nouveaux outils, assurer leur maintien en conditions opérationnelles (MCO) et garantir le RUN avec la production de reportings réguliers (hebdomadaires, mensuels, trimestriels…) destinés à une direction générale. Selon la charge, tu pourras également contribuer à d’autres activités autour de la gestion des risques IT et de la sensibilisation sécurité. Pas besoin d’être expert·e technique en cybersécurité, mais une vraie appétence pour les sujets Risk IT / SSI est essentielle. Concevoir, développer et maintenir des outils de reporting liés à la gouvernance et aux risques IT Assurer le RUN et produire des reportings à forte visibilité (exigence élevée en précision, rigueur et qualité) Développer et faire évoluer des tableaux de bord Participer, selon les besoins, à des actions de sensibilisation sécurité (organisation, animation, suivi) Contribuer à certaines activités de gestion des risques IT Environnement technique Power BI Power Automate Microsoft Lists SharePoint Développement d’applications de tableaux de bord et reporting Production et suivi en RUN
Offre d'emploi
Senior Backend Engineer F/H - Informatique industrielle (H/F)
█ █ █ █ █ █ █
Publiée le
Big Data
CI/CD
ClickHouse
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre premium
Mission freelance
Ingénieur Cloud AWS - Data & IA
TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas
36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
Mission freelance
Data Engineer - LYON
TEOLIA CONSULTING
Publiée le
BI
Data Lake
12 mois
400-480 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour l’un de nos clients un Data Engineer pour intervenir sur un projet stratégique de référentiel de données financières . Le projet vise à centraliser, fiabiliser et gouverner l’ensemble des données liées aux instruments financiers , au sein d’un socle de Master Data Management (MDM) . Vous intégrerez une squad Data pluridisciplinaire composée de développeurs Data, d’un Architecte technique, d’un Business Analyst et d’un Product Owner. Mission : Conception & développement Data : Conception et développement de pipelines de données robustes et évolutifs Implémentation du modèle Bronze / Silver / Gold Intégration et transformation de données multi-sources Orchestration & ingestion : Développement et paramétrage de workflows Apache NiFi Collecte et normalisation de données issues de : fichiers CSV / XML API REST Industrialisation et sécurisation des flux Modélisation & qualité des données : Participation à la modélisation du socle de données Construction de vues consolidées MDM Mise en place de contrôles de qualité : complétude unicité cohérence traçabilité et versioning Performance, sécurité & bonnes pratiques : Suivi et optimisation des performances des pipelines Mise en œuvre des standards de sécurité des données (authentification, chiffrement, gestion des accès) Documentation technique et partage de connaissances au sein de la squad
Offre d'emploi
Ingénieur V&V système - Ferroviaire F/H
VIVERIS
Publiée le
40k-50k €
Bruxelles, Bruxelles-Capitale, Belgique
Contexte de la mission: Dans le cadre de nos activités de développement des systèmes ferroviaires de demain (CBTC : Communication Based Train Control), nous recherchons un ingénieur Vérification et Validation Système . Vos responsabilités: Vos principales missions sont : - Analyse des spécifications systèmes et sous-systèmes ( ATC, ATS, PSD, RS, MSS) - Mise en place de la stratégie de test et rédaction des cas de tests - Conduite et réalisation des essais sur plateforme virtuelle avec simulateurs et FIVP - Analyse des résultats et rédaction des rapports d'anomalies - Gestion et suivi des corrections
Offre d'emploi
Ingénieur systèmes et réseaux H/F
HAYS France
Publiée le
35k-40k €
Mulhouse, Grand Est
Les missions sont les suivantes : Auditer les infrastructures des clients Identifier en autonomie des améliorations et projets à mener Conseiller les partenaires sur les bonnes solutions techniques à envisager Déployer des infrastructures techniques (Serveurs, solutions systèmes ou réseaux) Migrer les installations techniques Faire évoluer les solutions et logiciels des partenaires Intervenir en niveau 3 sur les incidents les plus complexes et urgents Créer une relation de confiance et professionnelle avec les partenaires
Mission freelance
Architecte DATA
Codezys
Publiée le
Python
SQL
Teradata
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d'une phase de transformation visant à adopter un modèle axé sur les données (Data Centric) et de définition d'une stratégie Data, le client met en œuvre une nouvelle plateforme Data Régime pour répondre à ses besoins. Un programme dédié à cette plateforme a été lancé fin 2025. Au premier trimestre 2026, des Proofs of Concept (POC) sont en cours afin de sélectionner la future plateforme Data. Le client recherche une prestation en architecture Data pour l’accompagner dans la définition de l’architecture cible et la mise en œuvre de cette nouvelle plateforme au sein d’un écosystème existant. Objectifs et livrables Le consultant intervenant aura pour mission de définir, concevoir et accompagner la construction de l’architecture cible Data. Ses principales responsabilités seront : Définir l’architecture cible Data : Concevoir une architecture alignée avec la stratégie globale Data et les principes Data-Centric, en déterminant les patterns d’intégration ainsi que les couches fonctionnelles de la plateforme (inclusion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : Élaborer l’architecture technique globale en intégrant l’écosystème existant (tels que Teradata, Hadoop) et en tenant compte des stratégies d’évolution (cloud ou on-premise, gouvernance, scalabilité). Proposer une trajectoire d’évolution permettant la transition vers cette nouvelle plateforme, incluant stratégie de migration, coexistence et déploiement par phases. Modélisation et harmonisation des données : Définir des modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossaire). Établir les principes de modélisation adaptés aux usages, qu'ils soient analytiques, opérationnels ou liés à des data products. Data Products & accompagnement métier : Soutenir les équipes métiers dans la conception et la structuration des data products, en veillant à leur cohérence avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : Élaborer les standards d’intégration, de transformation, de stockage et d’exposition des données. Formaliser les bonnes pratiques concernant les outils de l’écosystème, notamment ceux liés à l’ingestion, à la qualité, à l’orchestration, au catalogage et à la gouvernance.
Mission freelance
Data Engineer Nantes/pa
WorldWide People
Publiée le
Scripting
12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Mission freelance
Chef de Projet / Lead Sécurité Data & Cloud (GCP) H/F
Inventiv IT
Publiée le
BI
Data governance
Google Cloud Platform (GCP)
6 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission Suite à un audit interne, la mission vise à : Structurer une roadmap sécurité Data Renforcer la protection des données Améliorer le maintien en condition opérationnelle (PRA / PRI) Sécuriser la migration vers le Cloud (GCP) Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission Structurer et piloter la sécurisation du patrimoine Data Mettre en œuvre les exigences PCI / PRI Data Revoir et fiabiliser les habilitations On Prem & Cloud Renforcer la gouvernance des données sensibles Sécuriser les outils Data / BI / Data Science Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Compétences techniques clés Architecture sécurité Cloud (GCP) BigQuery security & Data masking IAM avancé PRA / PRI Data Governance Sécurité applicative Data Environnements Hadoop / Oracle Soft skills Leadership transverse Capacité à dialoguer avec RSSI & CoDir Structuration roadmap Vision stratégique et opérationnelle Responsabilités principales Sécurisation des accès Revue des habilitations On Prem et Cloud Mise en œuvre du principe de moindre privilège Gestion des comptes applicatifs et nominatifs Automatisation des habilitations Cloud Amélioration du processus de revue des droits PRA / PRI Data Structuration PCI / PRI Data Cartographie applicative & technique Identification des criticités Organisation sauvegardes et tests de restauration Priorisation PCI Cloud Gouvernance & protection des données Revue criticité données (RH, Finance, SP, IARD) Anonymisation / pseudonymisation / masking Harmonisation vers masking dynamique BigQuery Auditabilité & conformité RGPD Sécurisation des outils Cartographie des principes SSO Sécurisation outils BI & Data Science Implémentation OAuth2 / SSO Ségrégation projets GCP Coordination sécurité Interface RSSI / DDSI / Data Office Intégration périmètre Data dans outils internes Suivi vulnérabilités Animation comités sécurité Data Environnements techniques Cloud : GCP, BigQuery, DBT, Data Fabrik Cloud On Prem : Hadoop, Hive, Oracle, SAS, Informatica / PowerCenter, NAS Outils Data / BI / Data Science : Dataiku, BO, Tableau, RStudio, Jupyter, IDE Python Référentiels & sécurité : LeanIX, IAM, OAuth2 / SSO
Offre d'emploi
Ingénieur systèmes F/H
ADDIXWARE
Publiée le
Administration linux
Administration Windows
Linux
1 an
40k-45k €
400-440 €
Avignon, Provence-Alpes-Côte d'Azur
Nous recherchons un Administrateur / Ingénieur Systèmes pour renforcer notre équipe IT. Vous interviendrez sur la gestion, l'optimisation et la sécurisation de notre infrastructure afin de garantir la performance et la disponibilité des systèmes. Vous évoluerez dans un environnement technique stimulant, avec de vrais sujets d'architecture, d'automatisation et d'amélioration continue. Vos missions - Administration des systèmes Windows et/ou Linux - Gestion et supervision des serveurs (physiques & virtuels) - Gestion des environnements VMware / Hyper-V / Proxmox - Mise en place et maintenance des solutions de sauvegarde - Gestion Active Directory, GPO, DNS, DHCP - Participation aux projets d'évolution d'infrastructure - Automatisation des tâches (PowerShell, Bash, scripts) - Support niveau 2/3 sur incidents systèmes - Sécurisation des environnements (patching, durcissement, antivirus, firewall) - Rédaction de documentation technique
Mission freelance
Ingénieur système & réseau (H/F) - 95
MP Advertising
Publiée le
Cisco
Grafana
Linux
8 mois
Val-d'Oise, France
Dans une équipe de 5 Personnes, dédiée à l'infrastructure IT (Architecture et mise en place), L'objectif est de mettre en place dans les locaux de la société l'infrastructure cible de leurs clients ; réseaux, serveurs, stockages, AD en cohérence avec l'architecture IT définie. Puis de se déplacer sur les sites clients en France et à l'International Il s'agira de missions de 2 -3 semaines afin de de finaliser les interconnexions, tester les procédures de sauvegarde/ restaure et supporter les équipes d'intégration. La mise en place de la sécurité (filtrage au niveau des firewalls, mise en place de règles au niveau du WAF, et configuration des VPNs). Il est demandé également de maintenir une infrastructure interne dédiée à l’intégration de leurs projets : Suivi des inventaires, supervision, support pour la fourniture de ressource (VM, configuration de VPN et routage Opensence) ou de nouveaux serveurs Host (mise en rack et câblage + configuration réseau et stockage) Installer et configurer les composants réseaux (CISCO / Palo Alto) sur une infra client Déployer l'infrastructure (reseau / stockage / serveurs linux / AD) et l'intégrer au site client Fournir un support actif à la gestion des environnements d'intégration (gestion du parc / Location / inventaire/ fourniture de ressources)
Offre d'emploi
Expert Data spécialisé sur Semarchy
OBJECTWARE
Publiée le
Semarchy
6 mois
Indre-et-Loire, France
Nous recherchons un Expert Data spécialisé sur Semarchy pour intervenir sur un projet autour de la gestion et de la gouvernance des données . Vos missions : Mise en place et évolution de solutions Semarchy (MDM) Modélisation et gestion des référentiels de données Participation à la gouvernance et à la qualité des données Collaboration avec les équipes techniques et métiers Profil recherché : Expérience sur Semarchy xDM / MDM Bonne compréhension des enjeux data / gouvernance des données Autonomie et capacité à intervenir sur des environnements data 📍 Poste basé en Indre-et-Loire (37) 📅 Démarrage : dès que possible
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6956 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois