L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 538 résultats.
Mission freelance
Consultant Senior Data Management / Data Quality
Inventiv IT
Publiée le
Collibra
Data governance
Data management
6 mois
550-700 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data , nous recherchons un Consultant Senior Data Management / Data Quality pour structurer et industrialiser les pratiques de qualité des données. La mission vise à mettre en place un cadre global de Data Quality Management ainsi qu’une offre de services Data Quality , en interaction avec les équipes Data, IT et métiers. Missions principalesStructuration Data Quality Définir et déployer un framework Data Quality Management . Mettre en place les processus de gestion de la qualité des données . Formaliser la gouvernance Data Quality (rôles, RACI, comitologie) . Définir les dimensions de qualité et les règles associées. Pilotage & conduite de programme Piloter ou contribuer à des projets Data complexes et transverses . Animer des ateliers métiers et IT (élicitation, co-construction). Assurer l’alignement entre enjeux métiers, Data et IT . Contribuer à la structuration d’une offre de services Data Quality . Production & conduite du changement Produire les livrables structurants (templates, référentiels, bonnes pratiques). Concevoir des supports d’acculturation et de vulgarisation . Accompagner la conduite du changement et l’adoption des pratiques Data Quality. Contribuer à l’enrichissement des référentiels documentaires . Architecture & alignement technique Collaborer avec les équipes techniques sur la définition d’une architecture Data cible . S’inscrire dans un environnement basé sur une plateforme Data moderne (ex : Databricks) . Environnement technique Data Management & Data Governance Data Quality Management (DQM) Data Catalog : Collibra Plateformes Data : Databricks Méthodologies : Agile Outils documentaires / collaboratifs
Offre d'emploi
Expert(e) Cybersécurité & Réseaux - H/F
AMD Blue
Publiée le
Check Point
Cybersécurité
Fortinet
3 ans
57k-63k €
550-580 €
Île-de-France, France
Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Cyber . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Cyber . Contexte de la mission : Notre client recherche un(e) Expert(e) Cybersécurité & Réseaux pour assurer la gestion de la production quotidienne, apporter son expertise sur les infrastructures de sécurité et garantir l'évolution des architectures réseaux. Descriptif de la mission : Les missions sont : Gestion et expertise technique : pilotage des brassages, gestion des ports d’accès, routage, firewall, proxy et reverse proxy. Sécurisation du SI : gestion des équipements Firewall, renforcement de la structure réseau et mise à jour des systèmes de protection. Analyse et prévention : identification des failles, analyse des incidents de sécurité, prévention des intrusions et maintien en condition de sécurité. Gouvernance et conformité : rédaction et mise à jour des procédures, fourniture de KPI’s et tableaux de bord, participation aux campagnes d’audit internes et externes. Projets et Architecture : gestion de projets, préconisations techniques, participation aux architectures et contribution au plan de continuité informatique (PRA/PCA). Accompagnement : sensibilisation des utilisateurs aux enjeux de sécurité et analyse des changements impactant la sécurité du SI.
Mission freelance
Métrologue réseau (H/F) - 44
Mindquest
Publiée le
Réseaux
6 mois
Nantes, Pays de la Loire
Mon client recherche un Métrologue réseau pour une mission freelance à Nantes (44). Démarrage ASAP Nantes (44) 2 jours de télétravail Mission longue Missions détaillées : Concevoir, déployer et maintenir les dispositifs de métrologie réseau avec des technologies leaders. Administrer et exploiter des outils de métrologie pour l’analyse de trafic et performance réseau. Mettre en œuvre et exploiter les solutions d’observabilité telles que Dynatrace, avec intégration d’Intelligence Artificielle. Garantir la qualité, la fiabilité et la traçabilité des données de mesure. Produire des indicateurs de performance et analyses sur les incidents majeurs, pannes complexes ou baisses de performance. Réaliser des capacity plannings pour anticiper l’adéquation entre besoins et architectures réseaux. Participer à l’amélioration continue des architectures réseau du Groupe. Environnement technique exhaustif : Protocoles réseau : TCP/IP, UDP, VLAN, routage (Niveau 3 : Maîtrise/Garant). Outils Métrologie : NetFlow / IPFIX, Sondes Riverbed, matrices Keysight. Outils Observabilité : Dynatrace. Process : ITIL (Niveau 2 : Expérimenté). Formation : Réseaux informatiques, métrologie ou informatique industrielle.
Mission freelance
ETL / Data Streaming Project Manager Anglais Courant
SKILL EXPERT
Publiée le
Apache Kafka
Gitlab
Linux
6 mois
450-500 €
La Défense, Île-de-France
Contexte de la mission Au sein de l’équipe Architecture et Intégration ( Centre de compétence Group Digital and IT de Saint-Gobain) dans un contexte international et multiculturel, vous aurez pour missions principales de gérer et piloter les lignes de services intégration ETL : Talend (Cloud - plate-forme hybridé) et Data Streaming ( Kafka Confluent - Cloud) Objectifs et livrables Le support / suivi / maintenance de l’existant (Projet CRM / Annuaire / PIM) Accompagnement dans la création de nouveaux projets (analyser le besoin des clients, le challenger, cadrage technique : définition d’architecture et conception technique des flux) Piloter l’équipe en Inde (en charge des développements / tests / déploiements) Gérer un plan de charge et proposer des plannings Administration et suivi opérationnel de notre plateforme Talend et des composants On Prem (upgrade, monitoring, résolution de problème ponctuel) Administration et suivi opérationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation pour ces 2 plateformes Etablir, partager et faire partager les bonnes pratiques (configuration / développements …) Langues Niveau de langue Français Courant Anglais Courant
Offre d'emploi
🚀 Opportunité – Expert Infrastructure / Data / Middleware (Migration Big Data)
OMICRONE
Publiée le
Ansible
CFT (Cross File Transfer)
IBM DataStage
3 ans
40k-45k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet stratégique de migration d’une plateforme Big Data vers une architecture classique , nous recherchons un expert technique senior capable de piloter et réaliser une migration from scratch. 📍 Localisation : Île-de-France 📅 Démarrage : ASAP 🎯 Vos missions : • Concevoir et mettre en place une nouvelle plateforme data (from scratch) • Installer, configurer et administrer les infrastructures (serveurs, bases de données, middlewares) • Mettre en place une architecture haute disponibilité (actif/passif, actif/actif) • Installer et configurer ETL DataStage et ses composants • Gérer les middlewares (MQSeries, CFT, Autosys…) • Assurer le monitoring (Dynatrace, Elastic, BAM…) • Automatiser les déploiements (Ansible, Jenkins, Git) • Mettre en place les standards sécurité (certificats, chiffrement des flux, conformité) • Documenter, former et accompagner les équipes support (N2/N3) • Participer au support de production et à l’amélioration continue 🛠 Environnement technique : • ETL : DataStage / DataStage TX • Middleware : MQSeries, CFT, Autosys • Infra : Linux, Windows, Kubernetes • Bases de données : Oracle / Exadata • Monitoring : Dynatrace, ElasticSearch • DevOps : Ansible, Jenkins, Git • Réseau & sécurité : Load balancer, DNS, WAF, certificats ✅ Profil recherché : • Expert technique confirmé en infrastructure/data/middleware • Expérience en migration de plateformes complexes • Maîtrise des architectures haute disponibilité • Forte autonomie et capacité à intervenir de bout en bout • Bonne compréhension des enjeux sécurité et performance • Capacité à interagir avec des équipes techniques et métiers
Mission freelance
Data Analyste (H/F)
Freelance.com
Publiée le
PySpark
1 an
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
2 jours de télétravail non négociable Dans le cadre d’activités liées à l’ analyse de données pour des besoins de contrôle et prévention des risques , l’organisme recrute un Analyste Data afin d’intégrer une équipe spécialisée basée à Aix‑en‑Provence . L’objectif de cette mission est de concevoir et réaliser des analyses avancées à partir de l’ensemble des données du système d’information, afin d’évaluer leur cohérence et leur impact sur des processus métier sensibles . L’intervenant devra participer à la mise en place de cas d’usage orientés détection d’anomalies et comportements atypiques , en croisant différentes sources de données. Il sera également responsable de la création et de la maintenance de produits data réutilisables , tout en appliquant les pratiques internes de qualité, normes et gouvernance des données. Exemples de livrables attendus : Programmes de traitement Big Data Études et analyses documentées Présentations des résultats et recommandations Constructions de KPI et tableaux de bord de synthèse
Offre d'emploi
Développeur Power BI / Consultant Data
HN SERVICES
Publiée le
Microsoft Power BI
1 an
40k-43k €
290-330 €
Paris, France
Contexte de la mission Dans le cadre d’une mission au sein d’un acteur majeur du secteur bancaire, nous recherchons un Développeur Power BI / Consultant Data afin d’intervenir sur plusieurs plateformes décisionnelles. Vos missions Vous interviendrez sur des sujets variés autour de Power BI, notamment : Création de rapports et tableaux de bord décisionnels Maintien en conditions opérationnelles (MCO) des solutions existantes Support et amélioration continue des environnements Power BI Suivi de l’obsolescence des infrastructures, progiciels et Framework Contribution à la qualité des référentiels applicatifs Participation aux sujets d’usine logicielle et qualité logicielle
Offre d'emploi
Business Analyst Comptabilité Réglementaire H/F
CONSORT GROUP
Publiée le
Business Analyst
45k-60k €
75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de ConsortIA , sont des acteurs de référence de la Data, du Développement Digital et de l'Ingénierie Média. En combinant ces expertises, nous concevons des systèmes d’information augmentés, intégrés, agiles et sécurisés, au service de la performance et de la transformation numérique de nos clients. Business Analyst Comptabilité Réglementaire H/F C’est votre mission Vous êtes passionné·e par la transformation des systèmes d’information financiers et la comptabilité réglementaire ? Ce poste est fait pour vous. En tant que Business Analyst Comptabilité Réglementaire , vous êtes responsable du recueil et de la traduction des besoins métiers et de la conception fonctionnelle de la chaîne comptable de notre écosystème : Côté build : Animer des ateliers avec les équipes métiers pour recueillir et analyser les besoins Rédiger les spécifications fonctionnelles détaillées (user stories, règles de gestion…) Participer à la conception de la solution cible avec les architectes et experts techniques Contribuer à la définition de l’architecture fonctionnelle de la chaîne comptable Définir la stratégie de tests et préparer les cas de recette Participer activement aux phases de validation fonctionnelle Garantir l’adéquation entre besoins métiers et solutions proposées Côté run : Accompagner les métiers lors des phases de migration et de déploiement Assurer le support post-démarrage et le suivi des incidents fonctionnels Conduire le changement auprès des utilisateurs Maintenir la qualité et la conformité des solutions en production Interagir avec les différentes équipes IT, métiers et partenaires externes Assurer la continuité et la performance des processus comptables C’est votre parcours Vous avez au moins 3 à 7 ans d’expérience dans des environnements DevOps exigeants. Vous aimez analyser, structurer et résoudre des problématiques complexes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Environnement Agile (Scrum), outils Jira / Confluence Systèmes d’information comptables et réglementaires Environnements DATA (entrepôts de données, datamarts) Environnement Mainframe z/OS et architectures Java / API / Web Outils bureautiques : Excel, PowerPoint Connaissance d’outils type interpréteur comptable (ex : Axway RDJ/AFAH) C’est votre manière de faire équipe : Excellente communication et capacité à animer des ateliers Esprit d’analyse et de synthèse dans des environnements complexes Rigueur, autonomie et proactivité Capacité d’adaptation et sens du service Esprit collaboratif et aisance avec des interlocuteurs variés C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Paris Contrat : CDI Télétravail : Hybride (2 jours sur site requis) Salaire : De 45 K€ à 60 K€ (selon expérience) brut annuel Famille métier : Systèmes / Data / Transformation SI Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
DATA ENGINEER JAVA / SCALA ( 460€ max)
BEEZEN
Publiée le
Scala
6 mois
40k-61k €
340-460 €
Île-de-France, France
Solide expérience en développement avec des langages comme Scala et/ou Java, et une compréhension approfondie des concepts de programmation fonctionnelle. Compétences avérées dans l'utilisation de plateformes de streaming de données comme Apache Kafka, et de frameworks de traitement de données distribuées comme Apache Spark. Expérience significative dans le domaine de la Data et du Cloud, notamment sur Google Cloud Platform (GCP). Très bonne maîtrise de BigQuery et du SQL avancé, avec une expérience sur des traitements de gros volumes de données. Maîtrise de SQL pour la manipulation, l’analyse et la valorisation de données. Connaissance approfondie de DBT (Data Build Tool) pour la gestion et l’orchestration de pipelines de données. Expérience avec Pubsub pour la gestion de flux de données en temps réel. Maîtrise des outils de CI/CD, en particulier via GitLab CI/CD et Docker Compose, pour l’automatisation des workflows data. Bonne connaissance de l’environnement Linux et des outils de ligne de commande. Expérience solide avec les systèmes de gestion de version (Git). Travail en méthodologie agile (Scrum), avec une capacité à collaborer efficacement dans des équipes pluridisciplinaires.
Mission freelance
Ingénieur Réseau et sécurité H/F
Cheops Technology
Publiée le
Réseaux
Sécurité informatique
12 mois
400-450 €
Nantes, Pays de la Loire
Le prestataire devra justifier de compétences avérées et vérifiables correspondant à ce type de besoin et à problématiques complexes (organisationnelles et techniques) dans le domaine des Télécoms. Sous l’autorité du responsable de l’équipe Ingénierie Transverse, l’intervenant aura à assurer les activités suivantes : Réaliser des qualifications d’équipements de types routeur, commutateur, firewalls. Monter des maquettes conformes aux dossiers d’architecture, définir les configurations des équipements de ces maquettes, tester l’intégralité de la maquette en conditions de production. Rédiger les documentations afférentes à chacune de ces activités Assurer le support N3 (Processus de Gestion Des Problèmes) aux équipes de production sur les périmètres qualifiés. Assurer des astreintes sur des opérations programmées en production ou des présences sur des horaires décalés (ponctuellement).
Mission freelance
Data Product Manager (Business Analyst / Solution Architect)
emagine Consulting SARL
Publiée le
Business Intelligence
Master Data Management (MDM)
3 ans
Île-de-France, France
Objectifs et livrables Organiser les études en impliquant l’ensemble des parties prenantes identifiées et recueillir les besoins Comprendre les enjeux, objectifs et ambitions métiers Animer et conduire des ateliers avec les équipes métiers Collecter l’ensemble des inputs nécessaires aux études Documenter l’architecture fonctionnelle et formuler des recommandations Planifier les lots de travaux en s’appuyant sur les standards de la direction Data & Analytics Coordonner les contributeurs Data-as-a-Service (architectes techniques, data engineers, BI engineers) Documenter la valeur métier et la valeur apportée par la solution Préparer les budgets et le planning build/run Formaliser les propositions finales de type « Go to project »
Mission freelance
Senior Data Product Manager – Group Data Platform / Data Mesh H/F
ADSearch
Publiée le
Architecture
Data Mesh
Production
3 mois
La Défense, Île-de-France
Contexte de la mission Dans le cadre de l’accélération de sa transformation Data à l’échelle Groupe, notre client recherche un(e) Senior Data Product Manager pour piloter de manière stratégique et très opérationnelle la conception, la mise en œuvre et le déploiement de sa plateforme Data Self-Service Groupe , fondée sur les principes du Data Mesh . Il s’agit d’un rôle clé, orienté build et exécution , avec une forte responsabilité sur la livraison concrète , l’ industrialisation et l’ adoption à grande échelle de la plateforme au sein des différents domaines métiers. Le/la candidat(e) devra être capable de définir une vision produit claire tout en la traduisant en une plateforme robuste, scalable et prête pour la production , utilisée à l’échelle de l’entreprise. Mission principale Concevoir, construire, déployer et opérer la plateforme Data Mesh Groupe (appelée Group Data Platform – GDP ) comme un produit interne , en garantissant : sa livraison technique son adoption à l’échelle de l’entreprise son excellence opérationnelle son amélioration continue Responsabilités principales 1. Product Management orienté usage & amélioration continue Vos missions Recueillir et formaliser les besoins utilisateurs ainsi que les exigences plateforme Définir la vision produit , la proposition de valeur et la roadmap Mesurer l’usage de la plateforme et la valeur créée Améliorer en continu l’ expérience développeur et l’ expérience utilisateur Structurer les boucles de feedback et piloter le backlog d’amélioration Livrables attendus Vision produit et proposition de valeur de la plateforme KPIs de performance, d’usage et d’adoption Mécanismes de feedback utilisateurs et backlog d’amélioration continue Roadmap d’évolution de la plateforme 2. Delivery de la plateforme (responsabilité centrale) Vos missions Définir les capacités de la plateforme : data products pipelines de données gouvernance observabilité accès self-service Définir et faire appliquer les standards techniques et les patterns d’architecture Prendre des décisions techniques concrètes et valider les solutions de manière opérationnelle Garantir une plateforme industrialisée, réutilisable et scalable Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme 3. Architecture Cloud & Infrastructure Vos missions Coordonner la conception et l’exploitation de l’architecture cloud et hybride avec le Group Data Architect Coordonner avec la Group Data Delivery Team l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Garantir les exigences de sécurité , de conformité et de gouvernance Livrables attendus Blueprint d’architecture cloud (en collaboration avec le Group Data Architect) Cadre de sécurité et de gestion des accès Principes d’intégration hybride / on-premise 4. Pilotage de la delivery & exécution Vos missions Piloter l’ensemble du cycle de delivery de la plateforme Définir le backlog produit et le processus de priorisation Organiser les releases et les déploiements en production Suivre la performance, la fiabilité et la disponibilité de la plateforme Identifier et gérer les risques, incidents et sujets techniques critiques Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et processus de gestion de versions Tableaux de bord de suivi de delivery SLA / indicateurs de fiabilité et de performance de la plateforme 5. Déploiement & adoption dans les domaines métiers Vos missions Déployer la plateforme dans les différents domaines métiers Accompagner les équipes domaines dans la création de data products Mettre en œuvre le modèle opérationnel Data Mesh Structurer et accompagner l’onboarding des équipes Lever les freins opérationnels à l’adoption Livrables attendus Framework et processus d’onboarding des domaines Guidelines sur le cycle de vie des data products Playbooks d’accompagnement des équipes métiers / domaines KPIs d’adoption et d’usage Supports de formation et documentation d’onboarding 6. Documentation, standardisation & gouvernance Vos missions Documenter les capacités, standards et processus de la plateforme Garantir l’alignement avec la Federated Computational Data Governance du Groupe Structurer les bonnes pratiques de mise en œuvre Livrables attendus Référentiel de documentation de la plateforme Standards techniques et guidelines d’implémentation Framework de gouvernance et de conformité Playbooks de bonnes pratiques 7. Communication opérationnelle & reporting exécutif Vos missions Communiquer sur l’avancement, l’impact et la valeur de la plateforme Produire un reporting régulier à destination des instances de gouvernance et du management Aligner les parties prenantes métier, IT et Data Livrables attendus Executive Project Dashboard Tableaux de bord de performance de la plateforme Présentations pour les comités de pilotage / steering committees Suivi des décisions, risques et points bloquants 8. Promotion interne & évangélisation Vos missions Promouvoir la valeur de la plateforme à l’échelle de l’organisation Soutenir les initiatives d’adoption interne Fédérer une communauté autour de la plateforme Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations de la plateforme et portefeuille de cas d’usage
Offre d'emploi
Consultant Data & Transformation ERP sur Haut de france: Marquette Lez Lille
EterniTech
Publiée le
ERP
Microsoft Dynamics
Microsoft Excel
3 mois
Hauts-de-France, France
Mission :Transition Excel / ERP & Data Gouvernée Localisation :Haut de France: Marquette Lez Lille Démarrage : Asap Jours obligatoires sur site : 3 jours/semaine 3 mois de mission pour le moment Contexte: Je cherche pour un de mes client un Consultant Data & Transformation ERP sur Haut de france: Marquette Lez Lille Dans le cadre de notre transformation numérique et du déploiement de notre ERP (Microsoft Dynamics 365 Business Central / Tegos), nous accompagnons nos équipes métiers dans l’abandon progressif des fichiers Excel au profit d’un pilotage structuré, automatisé et fiable de la donnée. L’enjeu est double : • Remplacer les usages Excel existants (reporting, suivi opérationnel, analyses) • Rendre les équipes autonomes via des outils intégrés (modes analyses ERP, Microsoft Power BI) tout en garantissant une gouvernance des données robuste et pérenne. Vos missions 1. Cadrage & compréhension des besoins métiers • Recueillir et analyser les usages actuels Excel (reporting, KPI, fichiers critiques) • Identifier les écarts entre pratiques actuelles et standards ERP • Challenger les besoins pour éviter la reproduction à l’identique des Excel 2. Migration et transformation des usages • Reprendre les données issues des fichiers Excel existants • Structurer et fiabiliser les données dans l’ERP • Concevoir des restitutions directement exploitables via : o Modes analyses de l’ERP (Business Central / Tegos) o Tableaux de bord sous Microsoft Power BI 3. Automatisation & industrialisation • Supprimer les retraitements manuels Excel • Mettre en place des flux automatisés (exports, datasets, rafraîchissements) • Garantir la cohérence et la traçabilité des données 4. Accompagnement au changement • Former les utilisateurs métiers aux nouveaux outils • Construire des supports pédagogiques adaptés (guides, cas concrets) • Accompagner la montée en compétence vers plus d’autonomie 5. Gouvernance & qualité de la donnée • Définir des règles de gestion et de structuration de la donnée • Mettre en place des bonnes pratiques (référentiels, naming, contrôles) • Être garant de la cohérence entre usages métiers et modèle ERP Soft skills clés • Forte capacité à vulgariser des sujets data auprès de non-experts • Posture de business partner avec les équipes opérationnelles • Esprit critique (ne pas reproduire les Excel existants sans les challenger) • Autonomie, pragmatisme, sens du terrain • Capacité à embarquer et convaincre dans un contexte de changement Objectifs de la mission • Réduction significative de l’usage des fichiers Excel critiques • Mise en place de reportings fiables et automatisés • Adoption des outils ERP / BI par les métiers • Montée en autonomie des utilisateurs • Structuration d’une gouvernance data pérenne
Offre d'emploi
Architecte Data - IBM InfoSphere DataStage PX
CAT-AMANIA
Publiée le
CI/CD
Exadata
Kubernetes
40k-73k €
Île-de-France, France
Offre d'emploi : Architecte Solution Data / Référent Technique Plateforme Dans le cadre du déploiement récent d'une infrastructure Data Factory d'envergure, comprenant un entrepôt de données transversal et un écosystème de services associés, un profil d'expert technique est recherché pour assurer la pérennité et l'évolution de la plateforme. Missions principales Le titulaire du poste agit en tant que référent sur l'ensemble des choix technologiques et architecturaux de la plateforme. Les responsabilités s'articulent autour des axes suivants : Conception et Architecture : Traduire les besoins métier en solutions fonctionnelles et techniques. Analyser les besoins, définir les solutions et valider les nouveaux cas d'usage. Gouvernance Technique : Identifier les écarts entre les besoins spécifiques et les fonctionnalités de la plateforme mutualisée. Maintenir la documentation technique (cartographies, dossiers d'architecture, principes d'éligibilité). Expertise Data : Garantir la qualité de la modélisation des données, du lignage et de la qualité des flux. Coordination : Assurer l'interface entre les référents IT (Projet/Production) et les interlocuteurs métier (CDO, utilisateurs finaux) pour définir les priorités et les trajectoires d'évolution. Accompagnement : Faciliter le travail des équipes de développement tout au long du cycle de vie des projets et garantir le respect des standards d'architecture. Compétences techniques requises Une maîtrise approfondie des environnements data complexes est indispensable, avec une expertise particulière sur les technologies suivantes : ETL : IBM InfoSphere DataStage PX (compétence critique). Bases de données : Oracle Exadata au sein d'une architecture de type "Data Mesh" multi-instances. Orchestration et CI/CD : AutoSys, Ansible, Jenkins. Environnement Cloud : Kubernetes. Développement et Monitoring : Notions en Java/Angular et utilisation de Dynatrace. Profil recherché Le candidat doit démontrer une capacité à prendre de la hauteur sur des problématiques complexes et à s'imposer comme un garant des choix d'architecture. Une aptitude à influencer les décisions stratégiques et une rigueur méthodologique dans la gestion du lignage et de la qualité des données sont essentielles. Ce poste s'adresse à un profil expérimenté possédant une vision transverse de la chaîne de valeur de la donnée, de l'ingestion à l'exposition.
Offre d'emploi
consultant sénior gouvernance de donnée et qualité de donnée
DATAMED RESEARCH
Publiée le
Collibra
Microsoft Power BI
MySQL
24 mois
50k-65k €
400-650 €
Paris, France
Contexte Dans le cadre de la transformation Data de notre client secteur assurance, nous recherchons un Consultant Senior spécialisé en gouvernance et qualité des données pour accompagner la structuration et la fiabilisation des actifs data. Missions principales Définir et déployer un framework de gouvernance des données (politiques, rôles, processus) Mettre en place et piloter les dispositifs de qualité des données (règles, indicateurs, contrôles) Animer les instances de gouvernance (Data Owners, Data Stewards…) Recueillir et challenger les besoins métiers liés à la data Assurer la cartographie et la documentation des données (data catalog, lineage…) Contribuer à la mise en conformité réglementaire (ex : RGPD, BCBS 239…) Accompagner le changement et diffuser une culture data au sein des équipes
Mission freelance
Tech Lead GCP / Data Engineering Senior (H/F)
HOXTON PARTNERS
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL
12 mois
Paris, France
Description du poste Dans le cadre d’un programme de transformation data de grande ampleur au sein d’un acteur international du secteur du luxe, nous recherchons un Tech Lead GCP senior pour intervenir sur des use cases commerce à forte valeur métier. L’enjeu principal de la mission est de concevoir et piloter des architectures data sur Google Cloud Platform afin de unifier l’expérience client online et offline , en structurant des socles de données capables d’alimenter les usages analytiques, les KPIs business et les dispositifs de pilotage associés. Le consultant ne sera pas positionné comme un simple data engineer, mais bien comme un profil expert GCP / Tech Lead , capable de porter la vision technique, de guider les choix d’architecture et d’accompagner les équipes sur la mise en œuvre. Il interviendra dans un environnement où la donnée doit permettre de mieux comprendre les parcours clients, de rapprocher les interactions digitales et physiques, et de renforcer la performance des usages commerce. Les responsabilités incluent notamment : Concevoir et faire évoluer des architectures data sur Google Cloud Platform Piloter techniquement la mise en place de solutions permettant de connecter et valoriser les données online et offline Définir et structurer des pipelines de données robustes, industrialisés et scalables Exploiter et optimiser BigQuery pour le stockage, la transformation et l’analyse de données à grande échelle Participer à la modélisation des données nécessaires aux indicateurs business et aux cas d’usage commerce Encadrer les choix techniques autour des flux de données, de la qualité, de la performance et des coûts Collaborer avec les équipes data, analytics et métiers pour produire des jeux de données exploitables Accompagner techniquement une équipe et jouer un rôle de référent sur les sujets GCP Contribuer à la mise à disposition des données pour les dashboards et outils de visualisation Participer à l’amélioration continue des architectures et des pratiques d’industrialisation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5538 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois