Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 405 résultats.
Freelance

Mission freelance
Chef de projet HelpDesk - support IT

Publiée le
Helpdesk
Microsoft Power BI

4 mois
260-440 €
Marseille, Provence-Alpes-Côte d'Azur
Description de la mission : Garantir la performance et la qualité du centre de services support, en pilotant les activités liées aux indicateurs contractuels, à la gestion des incidents/demandes, à la formation des opérateurs et à l’amélioration continue, en coordination avec le prestataire et les instances de gouvernance - COTECH Centre de services Support. Activités réalisées : Assurer le pilotage opérationnel et le suivi des activités du centre de services, avec une attention particulière à la qualité de prise d’appel et de traitement des incidents et demandes - Animer et coordonner les comités techniques COTECH, en veillant à ce que les décisions soient traduites en actions concrètes et suivies jusqu’à leur réalisation. -Mettre en place et suivre des indicateurs de qualité et de performance fiables, permettant de mesurer la satisfaction usager et la conformité contractuelle. -Identifier les dysfonctionnements et proposer des actions correctives ou d’amélioration pour optimiser les processus, les outils (GLPI) et les pratiques des opérateurs. -Développer et mettre en oeuvre des actions de formation et de montée en compétence des opérateurs pour garantir l’efficacité et la qualité du service. -Travailler en étroite collaboration avec le prestataire pour mettre en place une démarche d’amélioration continue. Construire, consolider et analyser les KPI et SLA pour évaluer la qualité du service. - Identifier les incidents récurrents et besoins d’évolution de la base de connaissance ou des procédures internes. - Proposer et suivre des évolutions de paramétrage GLPI pour faciliter le travail des opérateurs. - Planifier et piloter des actions de formation régulières, en présentiel ou distanciel. - Superviser les activités de picking (contrôle par échantillonnage) pour détecter les problèmes de saisie ou d’affectation. - Formaliser les plans d’action issus des comités et en assurer le suivi jusqu’à la mise en oeuvre. - Assurer une communication claire et régulière avec la collectivité et le prestataire. Niveau d'anglais requis : N/A Télétravail : 0% Compétences fonctionnelles : Connaissance des centres de services et des activités de support Compétences techniques : Capacité à maintenir des rapports Power BI serait un plus Compétences comportementales : Bonne communication Capacité à gérer les projets avec de multiples parties prenantes Date de démarrage souhaitée, Durée et Lieu d’exécution de la prestation Date de démarrage souhaitée : ASAP Durée : 4 mois renouvelables Lieu : Marseille
Freelance

Mission freelance
[SCH] Développeur COBOL / Data Mainframe - 1105

Publiée le

10 mois
350-400 €
Courbevoie
Dans le cadre du renforcement des équipes Mainframe, nous recherchons 2 Développeurs COBOL orientés Data pour intervenir sur des évolutions applicatives et la maintenance du patrimoine en production. Mission longue sur site client (banque). Missions : -Analyse d’impacts suite aux demandes projets -Rédaction des spécifications techniques (accès aux données, mappings…) -Suivi ou réalisation des développements Mainframe COBOL -Tests unitaires & tests d’intégration -Livraisons en environnement de recette -Respect des normes qualité, documentation et méthodes internes
Freelance
CDI

Offre d'emploi
Product Owner

Publiée le
BI
Data Warehouse

12 mois
Paris, France
Télétravail partiel
Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
Freelance

Mission freelance
Consultant SAP Data Migration

Publiée le
SAP

6 mois
700-750 €
Île-de-France, France
Télétravail partiel
RED Global est à la recherche d’un consultant SAP Data migration pour venir rejoindre les équipes de l’un de nos clients à Paris dans le cadre de leur projet S/4HANA en cours. Compétences requises : Expérience de 6 ans minimum sur SAP Expertise sur les sujets de reprise de données/migration de données Expérience avec le cockpit de migration Expérience sur un projet S/4HANA Détails du projet : Démarrage: Janvier 2026 Durée : Mission longue – 6 mois renouvelable Charge de travail : 5 jours par semaine Lieu : Hybride – Ile-de-France - 3 jours sur site par semaine 2 jours de télétravail Langues : Français – Anglais est appréciable
Freelance

Mission freelance
Business Analyst Data (Épargne Retraite / Actuariat / SQL / PBI) – RUN PDK

Publiée le
kelia
Microsoft Power BI
Microsoft SSIS

2 ans
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst Data expérimenté pour intervenir sur un programme stratégique de modernisation du SI Épargne. Vous interviendrez au sein du chantier en charge du puits de données consolidant les flux du progiciel de gestion Kelia et alimentant les usages métiers (décisionnel, actuariat, comptabilité, pilotage épargne…). 🎯 Vos responsabilités Suivi de production & qualité de la donnée Mettre en place et suivre les indicateurs d’exhaustivité et de qualité du PDK Définir des contrôles automatiques sur la chaîne de données Construire le morning report et suivre les anomalies de production Prise en compte des besoins métier Analyser les expressions de besoin des équipes métiers Participer aux ateliers et reformuler les besoins Modéliser les objets métiers et définir les règles de transformation des données Kelia Spécifications & Recette Produire les spécifications fonctionnelles détaillées Concevoir les plans de tests et réaliser les recettes de bout en bout Qualifier, documenter et suivre les anomalies Produire les reportings, PV de recette et supports de réunion
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Data Warehouse
Oracle
SQL

1 an
40k-45k €
260-460 €
Paris, France
Télétravail partiel
Descriptif du poste Mission dans une équipe en charge du contrôle et monitoring à partir d'un datawarehouse post trade. L'expertise devra apporter une expertise technique sur la base de données Oracle et son eco-système. Mettre en place et maintenir les outils et infrastructure adéquat à l'analyse de données. Une expertise sur les technologies BI est nécessaire ainsi qu'une expertise pointue sur les langages SQL et Python. Veiller aux déploiements des pipelines de données et en assurer la sécurisation technique. Enfin, être force de proposition sur les solutions techniques à mettre en place. L'automatisation des processus d'alimentation des données sera un objectif également. Cette mission recouvre une forte composante technique à la fois sur l'architecture des données et sur la mise à disposition des informations pour les data analyst/scientist de l'équipe tout comme un besoin de comprendre les données sous-jacentes liées à l'environnement.
Freelance
CDI

Offre d'emploi
DATA Engineer Senior GCP-python

Publiée le
Gitlab

18 mois
10k-55k €
100-550 €
Paris, France
CONTEXTE Au sein de l’équipe Bronze, la mission se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l’équipe, la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
Développeur Powell / SharePoint Online

Publiée le
Power Platform
React
SharePoint Online

3 ans
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un Développeur Expert Powell dans le cadre du développement de l'intranet communication pour un grand groupe Parisien. 🎯 Vos missions principales : ✅ Conseil & expertise sur SharePoint Online et Powell ✅ Réalisation d’études techniques & recommandations d’architecture ✅ Développement de WebParts SPFx en React.js ✅ Développements spécifiques SharePoint & Powell ✅ Paramétrage avancé des plateformes collaboratives ✅ Contribution aux projets en méthodologie Agile ✅ Rédaction de documentation technique & bonnes pratiques ✨ Soft skills : • Rigueur & fiabilité • Excellente communication écrite et orale • Respect des engagements & sens du service 📬 Pour postuler : 📩 Ou directement en MP sur LinkedIn ! ¡Hasta pronto! 🚀
Freelance

Mission freelance
Manager AMOA & Gouvernance SI / DATA – DSI Interne

Publiée le
Data management
Gouvernance
Pilotage

6 mois
Île-de-France, France
Télétravail partiel
Vous interviendrez au sein de la Direction des Systèmes d’Information Interne , pour piloter l’équipe AMOA & Gouvernance SI/DATA dans un environnement multi-BUs, multi-outils et multi-process . Votre rôle : garantir la cohérence du SI Corporate et valoriser la donnée au cœur des activités métiers. ✅ Vos missions principales : 👥 Management d’équipe • Encadrer, animer et développer les compétences de l’équipe AMOA & Data • Prioriser la charge et assurer la cohérence avec la feuille de route SI interne • Favoriser la collaboration transverse entre IT et métiers 🚀 Conduite de projets & Transformation SI / Data • Accompagner les métiers dans le cadrage et la mise en œuvre des solutions SI • Piloter les projets de bout en bout (gouvernance, planification, recette, mise en prod) • Garantir la qualité, la sécurité et la conformité des projets Data 🧭 Urbanisation & Gouvernance de la donnée • Déployer la gouvernance des données et animer la culture Data • Gérer les référentiels internes (clients, produits, projets…) • Maintenir la cartographie du SI et la documentation fonctionnelle
Freelance
CDI

Offre d'emploi
Chef de projet Data H/F

Publiée le
Azure Synapse
Microsoft Power BI
Pilotage

1 an
45k-58k €
400-450 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Suite à une restructuration interne chez notre client dans le secteur de l'immobilier, nous recherchons un(e) Chef(fe) de projet Data à Bordeaux Missions Recenser et analyser les besoins métiers. Lire et comprendre les cahiers d’analyse. Participer aux COPROJ / COPIL. Suivre la RDD, les recettes, le run et les tickets JIRA. Rédiger les process et modes opératoires. Suivi des plannings et risques projets Environnement technique Microsoft Azure Azure Synapse Analytics Microsoft SQL Server Microsoft Power BI Démarrage : ASAP – Recherche quelqu’un pour démarrage de mission en cette fin d’année
Freelance

Mission freelance
Data Architecte (Secteur Energie / Industrie)

Publiée le
Apache Airflow
Apache Spark
Architecture

12 mois
690-780 €
Rennes, Bretagne
Télétravail partiel
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
Freelance

Mission freelance
Consultant Expert en Sécurité Opérationnelle - IAM CLOUD

Publiée le
AWS Cloud
Azure
CI/CD

1 an
400-600 €
Paris, France
Dans le cadre d’un projet stratégique mené par une grande organisation basée à Paris, nous recherchons un consultant expérimenté en sécurité opérationnelle , avec une expertise pointue en Identity and Access Management (IAM) sur les environnements Cloud Public : Google Cloud Platform (GCP) , Microsoft Azure et Amazon Web Services (AWS) . Le consultant rejoindra une équipe d’experts en sécurité Cloud pour renforcer les dispositifs IAM, accompagner les équipes projets et garantir la conformité aux politiques de sécurité internes. Vos missions principales : Auditer les environnements Cloud existants (GCP, Azure, AWS) afin d’identifier les vulnérabilités et les axes d’amélioration en matière de gestion des identités et des accès. Concevoir une stratégie IAM robuste , alignée sur les besoins métiers et les exigences de sécurité, incluant la gestion des permissions, des rôles et des politiques d’accès. Implémenter les meilleures pratiques de sécurité , notamment via des outils comme AWS SCP, GCP Deny Policy et les mécanismes de contrôle natifs des plateformes Cloud. Accompagner les équipes projets , en les formant aux concepts IAM et en les sensibilisant aux enjeux de sécurité. Documenter les processus et configurations , afin d’assurer la traçabilité et la pérennité des dispositifs mis en place.
CDI

Offre d'emploi
Chef de projet Data - Fonctionnel (H/F)

Publiée le

55k-60k €
Lyon, Auvergne-Rhône-Alpes
Notre client, grand acteur industriel est à la recherche de son futur Chef de projet Data (H/F) pour ses sites proche de Lyon en raison d'une transformation DATA d'envergure. Vous intervenez au sein de la Direction de la Transformation Digitale, sur le pôle Data Build, dans un contexte multi-sites et fortement transverse Vos missions : Il sera attendu que vous ayez : * Capacité à structurer un programme Data Groupe, à en assurer le pilotage, à garantir la qualité et la gouvernance. * Vision transversale : métiers, SI, data ; pragmatisme et sens de l’opérationnel. * Sens du résultat, respect des délais et des objectifs, rigueur dans le suivi. * Esprit de pilotage, leadership projet, capacité à arbitrer et prioriser dans un contexte parfois incertain. Au sein du pôle Data Build vous devrez faire : * Recueil et cadrage des besoins métiers (finance, supply-chain, marketing, commercial, …) et traduction en spécifications fonctionnelles data / SI. * Pilotage de projets Data end-to-end : MDM fournisseur, gouvernance data, data quality, catalogue data / PIM, BI. * Animation des ateliers, comités projet, COPIL / instances décisionnelles, coordination transverse métiers ↔ techniques. * Suivi planification / budget / livrables / jalons / risques / arbitrages, notamment dans un contexte “build → run”. * Coordination avec les équipes BI / IT pour les développements et intégrations. * Gouvernance des données : définition des référentiels, qualité, cohérence, conformité des process. * Reporting projet & data : suivi des KPIs, reporting aux instances de gouvernance, formalisation des livrables. * Capacité à piloter plusieurs projets simultanément, dans un cadre industriel et multi-disciplinaires.
Freelance

Mission freelance
Chef de projet Data - Fonctionnel (H/F)

Publiée le

12 mois
500-600 €
Lyon, Auvergne-Rhône-Alpes
Notre client, grand acteur industriel est à la recherche de son futur Chef de projet Data (H/F) pour ses sites proche de Lyon en raison d'une transformation DATA d'envergure. Vous intervenez au sein de la Direction de la Transformation Digitale, sur le pôle Data Build, dans un contexte multi-sites et fortement transverse Vos missions : Il sera attendu que vous ayez : * Capacité à structurer un programme Data Groupe, à en assurer le pilotage, à garantir la qualité et la gouvernance. * Vision transversale : métiers, SI, data ; pragmatisme et sens de l’opérationnel. * Sens du résultat, respect des délais et des objectifs, rigueur dans le suivi. * Esprit de pilotage, leadership projet, capacité à arbitrer et prioriser dans un contexte parfois incertain. Au sein du pôle Data Build vous devrez faire : * Recueil et cadrage des besoins métiers (finance, supply-chain, marketing, commercial, …) et traduction en spécifications fonctionnelles data / SI. * Pilotage de projets Data end-to-end : MDM fournisseur, gouvernance data, data quality, catalogue data / PIM, BI. * Animation des ateliers, comités projet, COPIL / instances décisionnelles, coordination transverse métiers ↔ techniques. * Suivi planification / budget / livrables / jalons / risques / arbitrages, notamment dans un contexte “build → run”. * Coordination avec les équipes BI / IT pour les développements et intégrations. * Gouvernance des données : définition des référentiels, qualité, cohérence, conformité des process. * Reporting projet & data : suivi des KPIs, reporting aux instances de gouvernance, formalisation des livrables. * Capacité à piloter plusieurs projets simultanément, dans un cadre industriel et multi-disciplinaires.
Freelance
CDI

Offre d'emploi
Platform Engineer Kubernetes – Data & GitOps (Environnement bancaire critique)

Publiée le
API Platform
Kubernetes

1 an
Paris, France
Télétravail partiel
Nous recherchons un Platform Engineer Kubernetes senior , orienté Data , pour concevoir, industrialiser et opérer une plateforme Kubernetes from scratch dans un contexte bancaire critique . Le rôle est plateforme & RUN , avec une approche GitOps stricte : Git est l’unique source de vérité, aucune intervention manuelle en production . Vos missions principales : Conception et déploiement de clusters Kubernetes from scratch (cloud et/ou on-prem) Mise en œuvre et exploitation en GitOps (ArgoCD / FluxCD) Industrialisation de plateformes data sur Kubernetes (batch, ML, analytique) Sécurisation de la plateforme (SSO, gestion des secrets, RBAC, Vault) Mise en place du monitoring, de la résilience et du scaling Exploitation et RUN en environnement bancaire (SLA, ITIL, MCO)
Freelance

Mission freelance
Senior Analytics Engineer

Publiée le
AWS Cloud
ETL (Extract-transform-load)
Microsoft Power BI

6 mois
550-650 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Dans un contexte d’hypercroissance, nous recherchons un Senior Analytics Engineer pour rejoindre l’équipe Data et contribuer à structurer, fiabiliser et faire évoluer la plateforme analytique de notre client dans le secteur de la mutuelle Concevoir, développer et maintenir des pipelines de données robustes (ETL/ELT). Automatiser les traitements pour améliorer la performance et la fiabilité des données. Mettre en place la gouvernance des données : catalogage, gestion des métadonnées, droits d’accès. Concevoir et optimiser des modèles de données adaptés aux besoins métier (AWS, Redshift…). Garantir les performances des bases de données, y compris sur de grands volumes. Collaborer avec les Data Analysts, Data Engineers et IA Engineers pour répondre aux besoins de l’entreprise. Participer à la création de tableaux de bord et reporting (Power BI) en assurant l'exactitude des données. Assurer la disponibilité des données pour les prises de décision stratégiques. Apporter une expertise technique et accompagner les équipes sur les bonnes pratiques analytiques. Former et soutenir les utilisateurs métier sur les outils data. Mettre en place des contrôles qualité et détecter les anomalies via le monitoring. S’assurer de la conformité aux réglementations sur la confidentialité et la sécurité (GDPR, CCPA).
2405 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous