Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 214 résultats.
Offre premium
Freelance
CDI

Offre d'emploi
Data Mesh Platform Manager

EXteam
Publiée le
Data Mesh

3 ans
Levallois-Perret, Île-de-France
Objectifs et livrables Key Responsibilities Platform Build and Delivery (Core Responsibility) Responsibilities Design and implement the Self-Service Data platform architecture Define platform capabilities (data products, pipelines, governance, observability, self-service access) Define and enforce technical standards and architecture patterns Ensure scalability, performance, and security Make hands-on technical decisions and solution validation Expected Deliverables Architecture decision records (ADR) Reference architecture patterns and reusable templates Platform capability roadmap Platform technical standards Cloud Architecture and Infrastructure Responsibilities Drive the Design and operate cloud and hybrid architecture with the Group Data Architect Coordindate with the Group Data Delivery Team the implementation on Amazon Web Services and Microsoft Azure Lead the Integration of on-premise systems Lead the Implemention of automation and infrastructure as code Ensure security and compliance requirements Expected Deliverables Cloud architecture blueprint (with the help of the Group Data Architect) Security and access management framework Delivery and Execution Management Responsibilities Own platform delivery lifecycle Define backlog and prioritization process Manage releases and production deployment Track performance and reliability Manage risks and technical issues Expected Deliverables Platform roadmap (short / mid / long term) Product backlog and prioritization framework Release plan and version management process Delivery tracking dashboards Platform SLA / reliability metrics Deployment and Domain Adoption Responsibilities Deploy platform across business domains Enable domain teams to build data products Deploy Data Mesh operating model Support onboarding and adoption Resolve operational adoption challenges Expected Deliverables Domain onboarding framework and process Data product lifecycle guidelines Domain enablement playbooks Adoption and usage metrics Training materials and onboarding documentation Product Management (Usage-Driven) & Continuous improvement Responsibilities Capture user needs and platform requirements Define product vision and roadmap Measure usage and value delivery Improve developer and user experience Expected Deliverables Product vision and value proposition Platform KPIs and adoption metrics User feedback loops and improvement backlog Platform enhancement roadmap Documentation, Standardization & Governance Responsibilities Document platform capabilities and processes Ensure compliance with group Federated Computational Data Governance Expected Deliverables Platform documentation repository Technical standards and implementation guidelines Governance and compliance framework Best practice playbooks Operational Communication and Executive Reporting Responsibilities Communicate platform progress and impact Provide executive-level reporting Manage stakeholder alignment Expected Deliverables Executive Project Dashboard Platform performance dashboards Steering committee presentations Decisions, Risks and issues tracking Internal Promotion and Evangelization Responsibilities Promote platform value across the organization Support internal adoption initiatives Build platform community Expected Deliverables Internal platform communication materials Adoption strategy and rollout plan Platform demos and use case portfolio Required Experience Minimum 15 years of experience in data platform, data engineering, or architecture Proven experience building and delivering production-grade data platforms Strong experience in hands-on technical delivery and implementation Experience in platform engineering or advanced data engineering Experience in large-scale enterprise or multi-entity environments Practical experience with Data Mesh mandatory. Technical Skills Architecture & Engineering Distributed data architecture Distributed systems design Infrastructure as code DevOps / DataOps / CI/CD practices Performance and scalability engineering Cloud & Infrastructure Advanced expertise in AWS and Azure Hybrid and on-premise architectures Cloud security and governance Data Platform Data products and data lifecycle management Data pipelines and orchestration Metadata and catalog management Data governance frameworks Data observability Product & Delivery Product mindset applied to technical platforms Roadmap and backlog management Agile delivery methodologies Value-driven development Critical Soft Skills Strong technical and operational leadership Execution and delivery mindset Ability to operate hands-on in complex environments Excellent cross-functional communication Strong ownership and accountability Problem-solving and pragmatic decision-making Ability to influence without direct authority Strategic thinking with operational focus Stakeholder management at executive and operational levels Fluent English (mandatory — written and spoken) Success Metrics Platform successfully delivered and operational in production Adoption across business domain Number and quality of deployed data products Platform reliability and performance User satisfaction and platform usage Reduced time-to-market for data use cases
Offre premium
Freelance

Mission freelance
Business Analyst expérimenté à Vannes

Deodis
Publiée le
Data Engineering
JIRA

36 ans
400-460 €
Vannes, Bretagne
Le projet vise à accompagner le Pôle Produit Risques dans la gestion d'évolutions majeures de produits, notamment dans le cadre d'enjeux réglementaires importants pour 2026. Le Business Analyst sera intégré à une des squads pour travailler en étroite collaboration avec le Product Owner et les équipes IT. Les livrables attendus incluent : Animation d'ateliers de cadrage et rédaction des compte-rendus. Formalisation des besoins utilisateurs dans la backlog Produit (rédaction de récits, organisation d'ateliers d'affinage). Réalisation d'analyses des risques métier (ARM) en lien avec les métiers et les IT. Maintien à jour de la documentation produit métier et fonctionnelle. Support aux pôles utilisateurs pour les supports de conduite du changement. Définition, maintien et application des plans de tests produits. Profil Le profil recherché est celui d'un Business Analyste expérimenté avec une bonne communication et un fort esprit d'équipe, capable de travailler sur des projets importants et challengeant en termes de délais. Les compétences et expériences requises sont : Expérience de l'agilité. Expérience de projets DATA (Puits de données, SID, modélisations et conception d'objets métiers). Expérience de projets "réglementaires" sur les domaines Financiers et Risques (Réformes Bâloises, BCBS239, IFRS9,...). Connaissances environnement DATA (ETL, langage SQL, AB Initio). Maîtrise des outils bureautiques (Excel, Powerpoint). Maîtrise de JIRA Software. Les qualités personnelles attendues sont : Rigoureux, Organisé et pragmatique. Autonome, curieux, volontaire, disponible, et forte capacité d'adaptation. Esprit collectif. Bonne communication (Clarté et synthèse). La mission se déroule à Vannes et nécessite une présence sur site a minima 3 jours par semaine (lundi, mardi et jeudi).
Offre premium
CDI

Offre d'emploi
PO DATA (FH)

ASTRELYA
Publiée le
Data governance

3 ans
55k-70k €
400-550 €
Paris, France
Votre Mission : En tant que PO Data, vous piloterez des projets de transformation sur des produits Data et IA dans des contextes Marketing, CRM, KYC. Vous jouerez un rôle clé dans le cadrage, la structuration et le pilotage de travaux stratégiques, en coordination avec de multiples acteurs internes et externes. Concrètement vous allez : Intégrer un dispositif existant et piloter les nouveaux projets DATA/IA sur l’ensemble des phases : cadrage, Expression des Objectifs, MVP et démarrage des développements. Recueillir, challenger, analyser et prioriser les besoins data des métiers Concevoir les expressions de besoins afférentes Définir la vision data de son périmètre et en construire la roadmap Prioriser les évolutions data en fonction de la valeur pour les métiers et/ou les clients Collaborer avec l’équipe de PO data de tous les périmètres des paiements pour s’assurer de la cohérence de la démarche mise en place Participer aux rituels agiles Garantir la cohérence des données entre les différents métiers, et plus globalement la qualité et la pertinence des livrables data mis à disposition des métiers et/ou des clients Suivre les indicateurs de performance sur son périmètre et mesurer la valeur des solutions mises à disposition Accompagner les utilisateurs dans l’appropriation et l’utilisation des solutions mises à disposition Accompagner les utilisateurs dans l’interprétation et la valorisation des données mises à disposition Garantir la cohérence des jalons et la tenue des échéances de la feuille de route Data et IA. Assurer un rôle de référent(e) sur les bonnes pratiques Data/IA : modèles IA, entraînement et FinOps. Votre futur environnement technique & fonctionnel : · IA / Data : Data engineering, IA Générative, Machine Learning,
Offre premium
Freelance

Mission freelance
Lead Developer Python Finance de Marché (Daily Prices Toolbox)

OCSI
Publiée le
FastAPI
Finance
Market data

1 an
550-640 €
Paris, France
🚀 Contexte & Enjeux Dans le cadre de la refonte d’une plateforme critique de gestion des prix quotidiens (Daily Prices), nous recherchons un Lead Developer Python pour concevoir et piloter une nouvelle génération d’outils de pricing. Le système actuel couvre un large spectre d’instruments (actions, futures, obligations, IRS…) mais souffre aujourd’hui de limites structurelles : complexité croissante liée à la diversité des produits et sources manque de visibilité sur le cycle de vie des données difficultés opérationnelles pour les équipes support et data problèmes de performance et de scalabilité Votre mission : reconstruire un socle robuste, transparent et scalable permettant de restaurer la confiance des utilisateurs et fluidifier les opérations. 🧩 Vos responsabilités En tant que Lead Developer, vous serez au cœur de la transformation : Architecture & conception Définir l’architecture cible de la plateforme Concevoir une API Python robuste et scalable Mettre en place une abstraction des systèmes legacy (notamment Oracle) Développement backend Développer une API exposant : le statut des prix les événements de traitement les opérations bulk (validation, rejet, retraitement) Garantir la qualité, la performance et la sécurité Pilotage technique Encadrer les développements (best practices, code review) Collaborer avec les équipes data engineering et support Participer aux choix technologiques structurants Vision produit Améliorer la visibilité et la traçabilité des données Réduire les temps d’investigation et les erreurs opérationnelles Contribuer à une expérience utilisateur fluide
Freelance

Mission freelance
: Assistant RSSI e-Commerce & Big-Data 500 e par jour

BI SOLUTIONS
Publiée le
Big Data
Cybersécurité

2 ans
400-500 €
Île-de-France, France
: Assistant RSSI e-Commerce & Big-Data 500 e par jour Assister le RSSI dans la gestion de la gouvernance, la sécurisation des processus, la sécurité des développements, et la sécurité des infrastructures liées au e-Commerce et à la data de Carrefour France, regroupant plusieurs métiers tel que Voyages, Spectacles, Cartes Cadeaux, eCommerce Retail et BigData; en apportant une expertise technique et en assurant un rôle de challenge auprès des équipes informatiques et métiers. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. ● Connaissances des contraintes, technologies et risques liés à un site e-Commerce et aux services aux clients ● Connaissances des contraintes, technologiques et risques liés aux développements d’application web et mobile à destination des clients, mais aussi des collaborateurs. ● Connaissances des best practices de développement et des référentiels associés (OWASP) ● Connaissances des contraintes et technologies spécifiques au Big Data et la gestion du cycle de vie de la donnée et des contraintes réglementaires liées à la gestion de données personnelles. ● Sensibilité à la fraude client ● Techniques d’attaques courantes ● Bonnes pratiques ANSSI ● Protocoles de communications couramment utilisés ● Méthode Ebios RM d'analyse de risques 500 e par j
Freelance

Mission freelance
POT9121 - Un Consultant Senior Affaires Réglementaires – RIM & IDMP sur IDF.

Almatek
Publiée le
Data management

6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients, un Consultant Senior Affaires Réglementaires – RIM & IDMP sur IDF. Mission / Responsabilités : - Développer une compréhension détaillée de la configuration RIM, des processus, des rôles et des responsabilités. - Collaborer avec les équipes RIM Business Run et Data Entry pour traiter les tickets liés aux processus (problèmes / questions / mode opératoire) provenant d’un large éventail de parties prenantes. - Élaborer des propositions d’amélioration des processus, mettre à jour les guides utilisateurs et partager/diffuser ces consignes. Utiliser les canaux les plus appropriés pour traiter les problèmes urgents (par exemple : sessions de partage de connaissances Q&A, newsletters, communications directes). - Travailler avec les équipes métier (experts métiers) pour collecter les demandes d’amélioration et les transformer en demandes de changement (« change requests ») exploitables pour les équipes IT Run. - Participer activement aux sessions de priorisation et de planification des releases RIM. - Participer aux activités de UAT (User Acceptance Testing) en tant que représentant métier, selon les besoins. - Soutenir l’équipe de migration des documents/archives avec des contributions continues sur les processus métier. - Aider les experts data à résoudre les problèmes en cours liés aux données associées aux étapes des processus. Expérience / Compétences : - Expérience démontrée dans les processus réglementaires globaux (Global Regulatory Business Process) incluant : -planification des changements globaux/locaux -planification et suivi des soumissions -planification et suivi des enregistrements -gestion des CCDS et de l’étiquetage local -reporting - Expérience avec Veeva Vault RIM (en tant qu’utilisateur final) fortement préférée. - Expérience en cartographie/modélisation des processus souhaitée. - Diplôme de niveau Master dans un domaine des sciences de la vie, informatique, ou bioinformatique souhaité. - Autonomie, esprit d’initiative et aptitude à résoudre des problèmes (troubleshooting mindset). Compétences techniques: affaires réglementaires - Confirmé - Impératif RIM /IDMP - Confirmé - Impératif Contrainte forte du projet : Diplome pharma/ expertise affaires règlementaires / connaissance RIM / IDMP Connaissances linguistiques : anglais professionnel (Excellentes compétences en communication en anglais.)
Freelance
CDI

Offre d'emploi
Consultant Data Governance & Data Migration (H/F)

Deodis
Publiée le
Data governance
Data Lake

1 an
38k-50k €
430-600 €
Île-de-France, France
En tant que Consultant Data spécialisé en gouvernance et migration, vous intervenez au cœur d’un programme stratégique de transformation visant à structurer, fiabiliser et harmoniser les flux de données dans un environnement complexe. Intégré(e) au Data Office, vous jouez un rôle clé dans la définition des besoins métiers, la conception des flux de données et le pilotage des livraisons, tout en garantissant la qualité, la traçabilité et la conformité des données. À ce titre, vous animez des ateliers avec les équipes métiers et IT afin de recueillir et formaliser les besoins data, réalisez des analyses d’écart entre les systèmes existants et les solutions cibles, et concevez les data lineage de bout en bout. Vous participez activement aux ateliers de conception fonctionnelle et technique, en apportant votre expertise sur les enjeux de gouvernance, de qualité et d’architecture des données. Vous êtes également en charge du pilotage de la roadmap data, en assurant le suivi des livraisons, l’identification des dépendances critiques et la gestion des risques. Vous maintenez un backlog structuré, suivez les indicateurs de performance et contribuez à la mise en place des standards de gouvernance et de qualité définis par le Data Office. Enfin, vous agissez comme référent sur votre périmètre, en accompagnant les équipes dans l’adoption des bonnes pratiques, en produisant une documentation de qualité (data dictionaries, processus, cartographies de flux) et en contribuant aux actions de change management dans un contexte de transformation à grande échelle.
Freelance
CDI
CDD

Offre d'emploi
Architecte Fonctionnel SI & Data – Senior

RIDCHA DATA
Publiée le
TOGAF

1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte Dans un environnement multi-BUs, multi-outils et multi-processus , une grande organisation renforce sa Direction des Systèmes d’Information Interne afin de structurer et faire évoluer son Système d’Information Corporate. Le poste s’inscrit dans une démarche de transformation SI & Data , avec un fort enjeu d’alignement stratégique, de gouvernance et de valorisation de la donnée. 🚀 Missions principales 🏗 Architecture fonctionnelle & urbanisation SI Définir et faire évoluer l’architecture fonctionnelle cible du SI Maintenir la cartographie fonctionnelle Définir les principes d’urbanisation Garantir la cohérence des flux et processus métiers Contribuer aux choix structurants et aux études d’opportunité 📊 Gouvernance SI & Data Structurer et animer la gouvernance SI et Data Piloter les instances de gouvernance Garantir la qualité et la cohérence des données Mettre en place et suivre les référentiels 🗺 Pilotage de la roadmap SI Consolider la feuille de route SI Identifier et piloter les dépendances entre projets Contribuer aux arbitrages stratégiques Accompagner les métiers et la DSI sur les cadrages complexes 🤝 Accompagnement transverse Assurer la cohérence globale des solutions SI Intervenir sur les sujets à forte complexité ou à enjeux stratégiques Animer les équipes projets (chefs de projet, AMOA, référents data…) Favoriser l’usage et la valorisation de la donnée 🧩 Périmètre fonctionnel SI Finance SI RH & Activité CRM & Connaissance Client Data & IA
Freelance

Mission freelance
Développeur Python Senior | RESIM ADAS | Environnement Cloud & HPC

RIDCHA DATA
Publiée le
Bash
Calcul hautes performances (HPC)
DevOps

1 an
Boulogne-Billancourt, Île-de-France
Nous recherchons un Développeur Python Senior pour intervenir sur une plateforme stratégique de re-simulation ADAS, au cœur des enjeux de validation des projets véhicules. Cette plateforme s’appuie sur des infrastructures cloud pour exécuter des chaînes complexes de simulation, intégrant : • des traitements batch intensifs (CPU / GPU) • des workflows majoritairement développés en Python • des environnements cloud • de fortes exigences en robustesse, performance, traçabilité et automatisation Le projet est critique pour le respect des jalons véhicules et s’inscrit dans une démarche d’amélioration continue des capacités de simulation. 🎯 Votre mission En lien direct avec les équipes de développement et les référents techniques, vous serez en charge de : • Développer, maintenir et optimiser les scripts Python des chaînes de simulation • Améliorer la robustesse, la lisibilité et la maintenabilité du code existant • Optimiser les performances des traitements et l’utilisation des ressources IT (CPU, RAM, GPU, stockage, réseau) • Industrialiser et automatiser les workflows techniques • Contribuer à l’analyse et à la résolution d’incidents complexes • Participer aux choix techniques et aux architectures logicielles • Mettre en place les bonnes pratiques de développement (tests, qualité, logging, sécurisation) • Participer aux rituels Agile du projet 📦 Livrables attendus • Code Python documenté et conforme aux standards projet • Scripts et outils d’automatisation opérationnels • Documentation technique (conception, usage, intégration) • Rapports d’optimisation de performance si nécessaire • Bilans des tests unitaires et d’intégration réalisés
Freelance

Mission freelance
Data Analyst Opérations & Maintenance

NEXTWYN
Publiée le
Azure Data Factory
BI
Big Data

3 mois
Paris, France
Nous recrutons un·e Data Analyst Opérations & Maintenance (Paris) Dans le cadre d’un projet stratégique au sein d’un grand groupe industriel international, nous renforçons notre pôle Data & IA et recherchons un Data Analyst O&M capable de valoriser des données issues de réseaux industriels complexes (IoT, supervision, maintenance, signalisation…). 🎯 Votre mission : transformer des données opérationnelles en insights concrets pour améliorer la performance, la supervision des actifs, la sécurité et la sobriété énergétique. Vous interviendrez sur la conception de tableaux de bord (Qlik) , l’ analyse de données , la qualité , la documentation , et la collaboration avec les équipes métiers dans un environnement international. 🔍 Vos responsabilités Recueillir et prioriser les besoins métiers avec les PO, CSM et équipes opérationnelles. Explorer, auditer et qualifier les données issues des systèmes industriels. Concevoir et développer des tableaux de bord (Qlik principalement). Standardiser et rationaliser les modèles de données avec les Data Managers. Documenter les règles de gestion et maintenir le dictionnaire de données. Réaliser les recettes fonctionnelles et mettre en place des plans de tests data.
Freelance

Mission freelance
Expert en Migration de Données H/F

SPIE ICS
Publiée le
Data analysis
Data Engineering
Migration

3 mois
400-580 €
Hauts-de-Seine, France
Nous recherchons pour notre client basé dans les Hauts-de-Seine (92) un Consultant en Migration de Données qui pilotera l’ensemble du processus de migration, de la préparation à la mise en production, afin de garantir la qualité et la cohérence des données. Missions principales : Accompagner les équipes locales de la définition de la stratégie à la validation métier des données. Gérer les phases MOCK1, MOCK UAT et chargement en production. Analyser en première ligne les anomalies détectées. Soutenir les responsables applicatifs pour la propagation des données. Être garant de la méthodologie DTM, définir la stratégie de nettoyage des données et suivre les KPIs. Maintenir les modèles de migration, outils, rapports et la bibliothèque de connaissances. Arbitrer les écarts méthodologiques et gérer les demandes de déviation. Former et animer la communauté des experts en migration (DME).
Freelance

Mission freelance
DATA ARCHITECT (Expert)

HAYS France
Publiée le
Collibra
Data governance
KPI

3 ans
100-600 £GB
Lille, Hauts-de-France
ATTENTION LE POSTE EST UN POSTE DE DATA ARCHITECT Nous cherchons un data architect pour intégrer la plateforme HRDP (Ressources Humaines): Data architecture * Conception de modèles conceptuels de données par contexte métier. * Identification des évènements métier par contexte métier. * Définition et formalisation des Business Terms, Business Attributes et Business Event dans Collibra. * Définition des Indicateurs Clés de Performance par contexte métier. * Définition des règles de qualité des Business Terms. * Analyse de la conformité des API avec la data architecture. * Analyse de la conformité des Data Set avec la data architecture. * Réalisation du data lineage. * Rédaction de dossier d'architecture data répondant aux demandes business exprimées en quarter plan * Participation à la data governance de la plateforme
Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
Freelance
CDI

Offre d'emploi
Data Engineer expérimenté – Plateforme Data (H/F)

Argain Consulting Innovation
Publiée le
Big Data
Data Warehouse
IBM DataStage

12 mois
40k-45k €
450-500 €
Nantes, Pays de la Loire
Contexte : Dans le cadre de l’évolution et de la modernisation d’une plateforme data stratégique, nous recherchons un Data Engineer expérimenté pour renforcer une équipe d’experts. Vous interviendrez dans un environnement agile et collaboratif, aux côtés d’ingénieurs data confirmés, avec un encadrement produit et méthodologique, favorisant l’excellence technique et l’innovation. Mission : La mission s’inscrit dans une dynamique ambitieuse autour de plusieurs axes : Build : Conception et développement de nouvelles solutions data Run : Maintien en conditions opérationnelles et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Modernisation : Évolution vers des architectures data modernes Responsabilités : Développer des traitements ELT (principalement à destination d’un datawarehouse) Concevoir et maintenir des templates ELT Participer à la définition de la feuille de route technique de migration ETL vers ELT Accompagner les équipes utilisatrices des solutions data Contribuer à la documentation des solutions du périmètre Garantir le bon fonctionnement du plan de production et le respect des engagements de service Identifier et proposer des optimisations dans une logique d’amélioration continue Partager ses connaissances et être force de proposition Attendus Développer des traitements ELT xDI principalement à destination du Datawarehouse Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Accompagner les développeurs Participer à la Documentation de l'ensemble des solutions Assurer le bon fonctionnement du plan de production et l'ensemble de nos produits et solutions en respectant les engagements de service Identifier / proposer des optimisations des traitements dans une démarche d'amélioration continue du plan de production Partager ses connaissances avec ses pairs et être force de proposition
CDI

Offre d'emploi
SAP AI & Mobile software engineer - 980 F/H - Informatique industrielle (H/F)

█ █ █ █ █ █ █
Publiée le
ABAP
Big Data

Belgique

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Architecte DevOps / FinOps GCP – Data & IA

Craftman data
Publiée le
DevOps
Google Cloud Platform (GCP)
MLOps

3 mois
590-700 €
Paris, France
Dans le cadre d’un programme stratégique Data & IA, nous recherchons un Architecte DevOps / FinOps avec une forte expertise GCP. Vous interviendrez sur des enjeux structurants autour de la conception et de l’industrialisation d’architectures Data & IA en environnement cloud et hybride. À ce titre, vous serez en charge de : Concevoir et mettre en œuvre des architectures data robustes et scalables Définir les standards d’architecture (Data, IA, DevOps, MLOps, Cloud) Mettre en place des pratiques de gouvernance des modèles (incluant les LLM) Encadrer les enjeux de conformité, risques et éthique liés à l’IA Structurer et diffuser les bonnes pratiques (Data, Cloud, DevOps) Intégrer une approche FinOps dès la conception des architectures Piloter la performance des pipelines data & IA Optimiser les coûts (Cloud, GPU, workloads IA) Contribuer à la mise en place de modèles de refacturation
3214 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous