Trouvez votre prochaine offre d’emploi ou de mission freelance okta à Paris
Votre recherche renvoie 220 résultats.
Mission freelance
Cadrage risques & data (BCBS 239)
Mon Consultant Indépendant
Publiée le
Data Strategy
Gestion de projet
4 mois
650-700 €
Paris, France
Dans le cadre de la transformation de ses fonctions de contrôle, un acteur de premier plan du Crédit à la Consommation souhaite définir et structurer sa future Plateforme Risque Cible. L'enjeu est double : moderniser l'infrastructure technologique pour intégrer les opportunités offertes par l'Intelligence Artificielle (automatisation des contrôles) tout en garantissant une conformité stricte aux exigences réglementaires, notamment BCBS 239. La mission s'inscrit dans un environnement transverse, nécessitant une synergie forte entre la Direction des Risques, les équipes Data et l'IT. Objectifs et Périmètre L'objectif central est de réaliser une analyse d'écarts (gap analysis) entre l'existant et la cible, puis de concevoir la feuille de route opérationnelle pour la mise en œuvre du dispositif. Le périmètre prioritaire est le Risque de Crédit, incluant également les risques financiers, de valeur résiduelle et opérationnels. Descriptif des interventions Phase 1 : Diagnostic et Analyse de l'Existant · Recueil des besoins : Animation d'ateliers avec les équipes Risques pour identifier les attentes et les leviers d'amélioration. · Audit des "Pain Points" : Identification des points de friction du dispositif actuel (processus, outils, qualité de donnée). · Benchmark de place : Analyse comparative des pratiques du secteur (organisation, gouvernance) et veille sur les cas d'usage de l'IA dans la gestion des risques. Phase 2 : Définition de la Cible (Target Operating Model) · Scénarios de Plateforme : Proposition de différents scénarios d'architecture et de services pour la plateforme cible. · Gouvernance des Données : Définition de la chaîne de responsabilité, de validation et de gouvernance de la donnée. · Pilotage : Spécification des tableaux de bord de suivi de la qualité des données (du niveau opérationnel jusqu’au Corporate Center). · Organisation & RH : Estimation des besoins en effectifs (FTE) et cartographie des compétences nécessaires pour opérer la cible. Phase 3 : Cadrage Opérationnel et Plan de Déploiement · Feuille de route : Élaboration d'un plan d'actions structuré par chantiers. · Gestion des dépendances : Articulation étroite avec le programme interne spécifique et les impératifs du projet BCBS 239. · Planning & Gouvernance Projet : Définition des jalons clés, des étapes de validation interne et mise en place des instances de pilotage. 4. Livrables attendus · Rapport d’analyse d’écarts et benchmark de place. · Dossier de définition de la plateforme cible et de l’organisation associée. · Schéma de gouvernance et de responsabilité des données. · Feuille de route détaillée (Roadmap) et planning d'implémentation. · Estimation budgétaire et dimensionnement des équipes (FTE). 5. Profil recherché · Expertise Métier : Solide expérience en gestion des risques (Crédit, Valeur Résiduelle, Opérationnel) dans le secteur financier. · Expertise Réglementaire : Maîtrise approfondie des exigences BCBS 239. · Culture Data/IA : Capacité à projeter l'utilisation de l'IA pour l'industrialisation des contrôles métiers. · Soft Skills : Excellence en gestion de projets transverses, capacité à fédérer des interlocuteurs variés (Risque, Finance, IT, Data). · Atout majeur : Expérience opérationnelle dans le secteur du crédit à la consommation automobile (captives).
Offre d'emploi
Consultant(e) DATA OFFICER SENIOR (DATA GOVERNANCE / DATA MANAGEMENT / RGPD)
CELAD
Publiée le
Data governance
IA
RGPD
1 an
70k-90k €
600-700 €
Paris, France
1. CONTEXTE Au sein du Data Office rattaché à la Direction Data , vous intervenez dans un environnement structuré en tribus et squads sur des enjeux stratégiques liés à la gouvernance, la qualité et la protection des données . L’objectif est d’ industrialiser la gestion de la donnée dans la fabrication des cas d’usage (data, analytics, IA), tout en garantissant leur conformité réglementaire et leur performance business. Vous travaillez en étroite collaboration avec le Référent Data, les équipes métiers, IT, juridiques (DPO) ainsi que les différentes squads contributrices. 2. OBJECTIFS DU POSTE Structurer et déployer le cadre de gouvernance data à l’échelle de l’entreprise Garantir la qualité, la traçabilité et la protection des données critiques Accompagner les squads dans la mise en conformité RGPD et IA Act Assurer une vision transverse et pilotée des enjeux data (KPI, risques, qualité) Contribuer à la réussite des initiatives stratégiques data (Data Platform, projets IA, etc.) 3. MISSIONS PRINCIPALES3.1 Cadrage des initiatives data Accompagner les projets métiers et IT dans la phase de cadrage Identifier les données critiques (business / réglementaires) Définir les exigences en matière de : qualité des données gouvernance protection (RGPD, IA) 3.2 Gouvernance & Data Management Déployer et faire appliquer le framework de Data Governance Structurer les éléments suivants : Data catalog (Nectarine / AB Initio) dictionnaire de données glossaire métier data lineage Définir et suivre les rôles : Data Owners Data Stewards Garantir la cohérence du modèle data entre les différentes squads 3.3 Qualité des données Définir les règles de Data Quality (complétude, cohérence, unicité, etc.) Mettre en place les indicateurs de suivi Piloter les plans de remédiation avec les équipes IT et métiers Évaluer l’impact de la qualité des données sur la performance business 3.4 Data Protection & conformité Accompagner les équipes dans les analyses de risques RGPD (DPIA) Garantir le respect des principes de protection des données (privacy by design) Contribuer aux sujets liés à l’ IA Act Collaborer avec les équipes juridiques / DPO 3.5 Pilotage transverse & hypervision Mettre en place et suivre des KPI de gouvernance data Assurer une vision consolidée : des risques de la qualité de l’avancement des travaux Préparer et présenter les éléments dans les instances : comités de suivi comités data COMEX Produits 3.6 Accompagnement des équipes Former et accompagner les équipes : Data Stewards Data Designers équipes produit Diffuser les bonnes pratiques de gouvernance data Faciliter l’adoption des outils et processus 3.7 Contribution aux initiatives stratégiques Participation aux projets structurants (Data Platform, HALO…) Contribution aux ARM sur les volets data Support à la transformation data globale de l’entreprise
Offre d'emploi
Data Engineer
UCASE CONSULTING
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Maintien en condition opérationnelle (MCO)
1 an
40k-50k €
450-550 €
Paris, France
Dans le cadre du renforcement d’une équipe data, nous recherchons pour un de nos clients dans le secteur de la mobilité un Data Engineer pour intervenir sur une mission longue, avec un rôle clé dans le développement et le maintien des pipelines de données. Vous intégrerez un pôle Data Studio & OPS , en charge du développement, de l’exploitation et de la fiabilité des solutions data, dans un environnement orienté production et performance. 🧩 Vos missions Développer et maintenir des pipelines de données (ETL / ELT) Manipuler et transformer des données (SQL / volumétrie importante) Assurer la mise en production et le maintien en conditions opérationnelles (MCO) Gérer le support technique N2 / N3 (incidents, monitoring, résolution) Participer à l’amélioration continue des traitements data Travailler en lien avec les équipes projets et techniques
Offre d'emploi
Data Engineer Teradata Data Viz H/F
CONSORT GROUP
Publiée le
Microsoft Power BI
Teradata
55k-62k €
75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de ConsortIA , sont des acteurs de référence de la Data, du Développement Digital et de l'Ingénierie Média. En combinant ces expertises, nous concevons des systèmes d’information augmentés, intégrés, agiles et sécurisés, au service de la performance et de la transformation numérique de nos clients. Data Engineer Teradata Data Viz H/F C’est votre mission Vous êtes passionné·e par la data, l’ingénierie des données et la valorisation des données ? Ce poste est fait pour vous. En tant que Data Engineer Teradata Data Viz , vous êtes responsable du développement et de la mise à disposition des données de notre écosystème : Côté build : Concevoir et développer des solutions de traitement de données sous Teradata Mettre en place des flux d’alimentation de données (ETL – BTEQ) Modéliser les données en fonction des besoins métiers Développer des requêtes SQL performantes et complexes Participer à la mise en œuvre de solutions de datavisualisation (Power BI, MSBI) Collaborer avec les équipes métiers et techniques dans un environnement Agile Contribuer aux bonnes pratiques de développement et de modélisation Participer à la mise en place des chaînes de déploiement (DevOps) Côté run : Assurer le suivi des traitements en production Analyser et résoudre les incidents liés aux flux de données Optimiser les performances des traitements et requêtes SQL Participer à l’amélioration continue des applications Maintenir et faire évoluer les solutions existantes Documenter les processus et livrables (DTA, feuilles de route…) Assurer la qualité et la fiabilité des données Contribuer aux activités de support et de maintenance C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements DevOps exigeants. Vous aimez analyser, résoudre des problématiques complexes et travailler sur des sujets data à fort impact sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Teradata, BTEQ, SQL avancé Power BI, MSBI (datavisualisation) Environnement UNIX / Shell scripting Outils : Control-M, Git, Jira, Confluence Méthodologies Agile & pratiques DevOps Modélisation de données & data engineering Connaissances du domaine bancaire (conformité, fraude, LCB-FT, risques) C’est votre manière de faire équipe : Esprit collaboratif et sens du collectif Rigueur et sens du détail Capacité d’analyse et de résolution de problèmes Communication claire et efficace Proactivité et autonomie Adaptabilité et curiosité C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Paris Contrat : CDI Télétravail : Hybride Salaire : De 55 K€ à 62 K€ (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
Expert Kibana / Data Visualisation (F/H)
CELAD
Publiée le
Bitbucket
CI/CD
Data visualisation
12 mois
550-590 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Expert Kibana / Data Visualisation pour intervenir chez un de nos clients dans le secteur banacaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Concevoir, développer et maintenir des dashboards avancés sous Kibana pour assurer une visibilité de bout en bout des systèmes et des flux de données - Transformer des données issues de Elasticsearch en visualisations claires, pertinentes et actionnables - Mettre en place des visualisations interactives (filtres, drill-down, agrégations) pour faciliter l’analyse et la prise de décision - Analyser les données collectées via Filebeat et Logstash afin d’en maximiser la valeur - Exploiter les fonctionnalités de Machine Learning de Kibana pour détecter anomalies, tendances et signaux faibles - Collaborer avec les équipes techniques pour optimiser les requêtes, les index et la qualité des données - Traduire les besoins métiers en dashboards pertinents et exploitables - Assurer la fiabilité, la cohérence et la qualité des données présentées
Mission freelance
Data Engineer
DEVIK CONSULTING
Publiée le
API REST
Azure
Databricks
1 an
400-700 €
Paris, France
Description Pour le compte de notre client grand compte, Nous recherchons Data Engineer pour intervenir sur une plateforme Data stratégique, avec un rôle clé dans la gestion des flux de données et le maintien en condition opérationnelle. Tâches principales Assurer l’ingestion et l’orchestration des données (JIRA, CRM type Salesforce/Zoho, outils métiers) Centraliser et structurer les données au sein d’un Data Lake Développer et maintenir des pipelines de données (Python, API REST) Garantir la qualité, la sécurité et l’anonymisation des données Collaborer avec les équipes métiers pour faciliter le reporting Profil Recherché Expérience confirmée en Data Engineering Maîtrise de Python et des API REST Bonne connaissance de PostgreSQL Expérience sur Azure et Databricks Sensibilité à la data visualisation appréciée Rigueur, autonomie et esprit analytique Lieu : Paris
Offre d'emploi
Data Engineer Big Data/Teradata
VISIAN
Publiée le
Apache Spark
Big Data
Python
2 ans
40k-80k €
400-620 €
Paris, France
Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Big data/Teradata Vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ Teradata CONTROL-M Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) SQL sur SGBD relationel (Teradata) TPT Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea Spark HDFS Python Hadoop
Mission freelance
AI Platform & Engineering Lead
COEXYA
Publiée le
Architecture
Data Engineering
IA Générative
12 mois
670-880 €
Paris, France
Nous recherchons un AI Platform & Engineering Lead capable de cadrer les choix d’architecture IA, d’orienter l’industrialisation des solutions et de faire le lien entre équipes techniques et métiers dans un environnement complexe et régulé. Rôle attendu Définir les architectures IA cibles : RAG, orchestration LLM, agents, workflows, design patterns réutilisables. Arbitrer les choix build vs buy vs hybrid selon les enjeux de robustesse, coût, sécurité et scalabilité. Structurer l’industrialisation : LLMOps, CI/CD, monitoring, observabilité, évaluation, qualité et robustesse. Accompagner l’intégration aux systèmes et données existants dans un environnement API-first, cloud et microservices. Dialoguer avec les équipes techniques, architecture, sécurité, risques et métiers pour sécuriser des choix exploitables. Contribuer à des fondations IA secure-by-design adaptées à un cadre fortement gouverné.
Offre d'emploi
AMOA DATA
AVALIANCE
Publiée le
AMOA
40k-60k €
Paris, France
Voici les principaux axes liés à la transformation numérique et aux grands projets de transformations IT : • Digitalisation des parcours clients • Évolution du système d’information • Intégration de l’intelligence artificielle • Refonte de l’environnement digital • Objectifs financiers et opérationnels. Les projets s’inscrivent dans une architecture DataPlatform structurée en quatre couches : • Sources de données : SI internes(PICRIS, ALTO ESR, NEC, ECO, Salesforce, IzyDSN…), flux provenant de SI externes (délégataires,, SNGI-CNAV, INSEE…), saisies manuelles
Offre d'emploi
Data Engineer / Data Scientist
ONSPARK
Publiée le
Cloudera
Hadoop
Python
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Engineer / Data Scientist pour accompagner nos clients grands comptes. Vous interviendrez au sein d'un Pôle Data mature, exploitant une plateforme Big Data on-premise (Cloudera Data Platform Private Cloud) et un environnement de Data Science (Cloudera Machine Learning). Vos missions s'articulent autour de l'ingestion de données massives issues de multiples partenaires institutionnels, de l'accompagnement des équipes métier et de la mise en œuvre de cas d'usage data avancés (data science, IA, machine learning, NLP, dataviz). Responsabilités Collecte des données Développer, industrialiser et maintenir des pipelines d'ingestion de sources de données internes et externes Participer à la préparation et au suivi de la qualité des données Identifier des opportunités d'utilisation de nouvelles données Expertise & accompagnement métier Accompagner les chargés d'études dans leur utilisation de la plateforme de données (POC/POV, support, expertise, formation) Contribuer et maintenir en condition opérationnelle les cas d'usage sur la plateforme (simulateurs, prévisions, indicateurs, data science, IA) Valoriser et exposer les résultats via des outils de visualisation ou de micro-services Sécuriser & MCO Comprendre les contraintes des équipes supports (sécurité, infrastructure, RGPD) Contribuer aux bonnes pratiques de développement, standardisation des livrables, amélioration continue
Offre d'emploi
Data Analyst MSBI
UCASE CONSULTING
Publiée le
Cognos
Microsoft SSIS
12 mois
40k-45k €
400-550 €
Paris, France
Le data Analyst BI a pour mission de consolider les données clients à des fins analytiques et statistiques. Il intervient sur les projets stratégiques : lancement de produit, consolidation financière, étude de risques, suivi d’activité. Dans le cadre de ses missions, il échange avec l’ensemble de l’équipe data et travaille en collaboration étroite avec les experts métiers de la finance, du risque et du marketing pour fournir des données consolidées de qualité. Il sait vulgariser ses travaux pour les partager et comprendre les priorités du métier. Le développement, l’industrialisation et le déploiement de flux de données font partie de ses missions principales. Il est également amené à suivre et à améliorer continuellement la qualité de nos livrables et de notre run. Il travaille dans un contexte agile au sein d’une équipe pluridisciplinaire (Architect, Analyst, Scientist) et d’experts passionnés par la data et les nouveaux usages. Il partage efficacement sur ses travaux en maintenant la documentation de l’équipe à jour et en réalisant des présentations. Enfin il veille en permanence sur les ruptures technologiques et réalise des POC pour mieux les appréhender. Missions : • Challenge, cadrage, chiffrage et priorisation des besoins métiers • Exploration et fouille de données • Industrialisation de traitement • Suivi du RUN • Documentation
Offre d'emploi
Data Modelisation sur Paris
EterniTech
Publiée le
BigQuery
Merise
3 mois
Paris, France
e cherche pour un de mes clients un Data Modelisation Description du besoin : OBJET DE LA PRESTATION : DATA MODELER - PROGRAMME DE TRANSFORMATION DATA B2B NOM DU PROJET : TRANSFORMATION DATA B2B Senior Data Analyst / Data Modeler (B2B) Cadre et environnement (Contexte général du projet) Dans le cadre du programme de transformation de la Data B2B (Agite Data), le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir, en mode agile, le socle technique et les données de référence (RCU, Pivots) qui serviront ensuite aux Squads Métiers pour bâtir leurs cas d'usages Définition de la prestation (Objet & Périmètre de la prestation) Le Prestataire agira en tant que Référent Modélisation & Connaissance de la Donnée. Il fera le lien entre les Experts Métiers et le Lead data engineer agile. 1) Conception du "Core Model" : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) en cible sur BigQuery (Modèles en étoile / Data Vault). 2) Règles de Gestion RCU : Définir et prototyper (en SQL) les règles de rapprochement (Matching/Merging) permettant de lier les données techniques (ex: ND) aux données légales (SIREN/SIRET). 3) Archéologie de la Donnée : Analyser les sources Legacy (Oracle) pour identifier les règles implicites et cartographier les écarts avec la cible. 4) Gouvernance & Dictionnaire : Rédiger les définitions fonctionnelles directement dans le Data Catalog d'AIDA (Métadonnées BigQuery) et le Data Catalog Métier (ODG = Open Data Guide) pour garantir l'autonomie des futures Squads. 5) Support aux Squads : Préparer des "Data Sets" certifiés pour faciliter le travail des Data Scientists et Analystes des Squads Métiers. Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Modélisation Cible Modèles Logiques de Données (MLD) validés par le Tech Lead. Mapping Source-to-Target détaillé. Itératif : 1er Draft RCU mi-Mars 2026 Définition du RCU (Vision 360) Spécification SQL des règles d'unicité client (Clés de réconciliation). Matrice de gestion des cas particuliers (Multi-comptes, Flottes). MVP RCU : Fin Mars 2026 Gouvernance des Données Dictionnaire de données (Business Glossary) intégré dans AIDA et ODG Règles de Qualité (DQ Rules) définies pour chaque objet métier Continu Exploration & Prototypage Requêtes SQL d'analyse d'impact. Datasets de test pour validation métier. A la demande Domaines de compétences et savoir faire de la société prestataire, nécessaires à la bonne réalisation de la prestation : Indispensable : Modélisation de Données Expert : Maîtrise des concepts théoriques (Merise, 3NF) et dimensionnels (Star Schema, Kimball). Capacité à simplifier des modèles complexes. SQL Avancé : Capacité à manipuler la donnée (Requetage complexe, Window Functions) pour valider ses propres modèles (pas de spécifications "papier" uniquement). Analyse Fonctionnelle : Capacité à dialoguer avec le Métier (Marketing, Finance) pour extraire les règles de gestion. Expérience avérée dans un cadre de travail Agile / Scrum. Connaissance su secteur B2B/ TELECOM : Compréhension des notions de Hiérarchie de comptes, Parcellaire, SIRET/SIREN. Connaissance de l’environnement BIGQUERY Savoir-être : Esprit de synthèse. Force de proposition (ne pas attendre que le métier dicte le modèle). Pragmatisme (livrer de la valeur incrémentale).
Mission freelance
Data Product Manager
K2 Partnering Solutions
Publiée le
Data management
1 an
Paris, France
Notre client recherche un(e) Data Product Manager afin de renforcer ses équipes. L’objectif est de concevoir, structurer et développer un portefeuille de produits et de plateformes data répondant aux besoins métiers du domaine Mobility, tout en respectant les standards et les guidelines en matière d’architecture Data & Analytics définis par le client. Priorités pour 2026 : Migration vers une plateforme data Cloud Migration de MicroStrategy vers Power BI Prise en charge des besoins métiers continus dans les domaines : Sales Finance Manufacturing Supply Chain Purchasing Compétences attendues : Excellente communication en français et en anglais Compétences en analyse de données (exploratoire) et modélisation de données Bonne compréhension du cycle de vie complet de la donnée (de la source à la visualisation) Vision globale des produits Data & BI dans leur périmètre Connaissance des données ERP (SAP) et des principes de Master Data Management Rigueur dans les méthodes d’analyse, de cadrage et d’organisation Forte orientation client Esprit d’équipe Début : Mai 2026 Location : Paris (3 jours sur site/ 2 jours télétravail) Langues : Français et Anglais
Offre d'emploi
Analyst Support IT Salle des Marchés
cty
Publiée le
Market data
Support utilisateurs
1 an
40k-65k €
400-650 €
Paris, France
La prestation concernera l'activité de support technique des applications Market Data, Trading, Broker et Contribution, utilisées par les traders de la salle des marchés Fixed Income. En contact permanent avec la salle de marché, vous interviendrez principalement sur les applications de Pre-trade, installées sur les postes de travail des utilisateurs. Vous assistez les utilisateurs dans leur utilisation des applications installées sur leurs postes de travail : • Market data • Applications Broker • Trading A ce titre, vos missions principales sont : - Support niveaux 2 et 3 : * Gestion des incidents incluant l'identification de la root cause et les actions de résolution * Gestion de la communication en direction des utilisateurs, du management et des autres équipes IT * Gestion des demandes utilisateurs * Maintien à niveau des architectures de Backup et de PSI de façon continue - Maintenance évolutive * Gestion des évolutions des applications sous gestion. * Choix de la meilleure solution en rapport avec les standards du client * Définition et suivi d’un plan d’action, d’un planning et d’un plan de charge * Mise en place de la solution en coordination avec les autres équipes IT (réseau, serveurs, Citrix, …) * Pilotage du déploiement à Paris et à l’international
Offre d'emploi
Expert Big Data / Lead Tech Big Data
ONSPARK
Publiée le
Cloudera
Hadoop
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Expert / Lead Tech Big Data pour accompagner nos clients grands comptes. Vous interviendrez en tant que référent technique au sein d'environnements Big Data on-premise matures (Cloudera CDP), avec de fortes exigences en matière de performance, de sécurité (ISO 27001, RGS) et de qualité. Responsabilités Définir les orientations techniques de la plateforme Big Data Encadrer et accompagner les équipes Data Engineering Optimiser les performances des traitements distribués (Spark, Hadoop) Assurer une veille technologique active et contribuer à la roadmap technique Garantir la sécurité, la fiabilité et l'évolutivité de la plateforme
Offre d'emploi
📩 Data Engineer / DevOps – Data Platform
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
220 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois