Trouvez votre prochaine offre d’emploi ou de mission freelance HDFS (Hadoop Distributed File System)
Votre recherche renvoie 16 résultats.
Mission freelance
ADMINISTRATEUR HADOOP H/F
Publiée le
Administration linux
Apache Airflow
Apache Hive
3 mois
Nanterre, Île-de-France
Télétravail partiel
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients un Administrateur Hadoop H/F intervenant sur la plateforme Big Data, Le poste s’inscrit dans un environnement de production critique mêlant exploitation, infrastructure, MCO avancée, migration cloud (GCP), gestion des flux, intégration applicative et optimisation continue. Le rôle couvre l’ensemble des responsabilités décrites dans la JD, incluant la MCO N2/N3, les incidents, les études techniques, l’installation, le RUN, les POC, la supervision, la performance, la sécurité, et l’unification des volets exploitation/infrastructure. Objectif et livrable: Administrer et exploiter la plateforme Big Data Hadoop (Cloudera CDP – ex Horton Works). Assurer la MCO niveau 2 et 3, diagnostiquer et résoudre les incidents. Gérer les anomalies, tickets applicatifs, et garantir la remise en service rapide. Installer, tester et mettre en production technologies d’infrastructure & solutions Big Data. Réaliser études techniques, choix d’architectures, dossiers d’implémentation. Participer aux projets d’intégration : batch, streaming, optimisation applicative, habilitations. Contribuer aux POC, analyser résultats, restituer aux équipes d’intégration. Déployer outils de métrologie, produire indicateurs, tableaux de bord et reporting. Contribuer à la migration progressive vers GCP (Synapse, Kubernetes). Assurer le RUN : suivi opérationnel, actions préventives/curatives, HNO/astreintes. Compétences attendues: Distribution Hadoop : Cloudera CDP (ancien Hortonworks), maîtrise HDFS, Yarn, Hive, Spark, Oozie. OS : Linux RedHat / CentOS, scripting Shell, Python. Cloud : GCP, Synapse, Kubernetes. Supervision : Grafana, Prometheus, outils de monitoring automatisés. Data & flux : Kafka, Spark, Hive, HBase, Nifi, ODI, Debezium Server. Pipelines & orchestration : Airflow, ArgoCD. Bases & stockage : DBAAS PGSQL, Oracle, S3 Scality, Golden Gate. Outils complémentaires : Trino, OpenMetaData, OPA, KeyCloak, SuperSet, Lake Keeper, PBI Online Gateway, Online Halo Entra ID, Online Workspace. Méthodologie : MCO, ITIL, support N2/N3, performance clusters, optimisation continue. Le mission s'inscrit dans un contexte de pré-embauche en CDI (50–60K€). N'hésitez pas à m'envoyez vos CV!
Offre d'emploi
Architecte Technique Data
Publiée le
Apache Spark
Architecture
Big Data
2 ans
48k-98k €
400-770 €
Villejuif, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Architecte technique Data Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query etc)
Mission freelance
230795/Data OPS Niort Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana)
Publiée le
Control-M
Dynatrace
3 mois
320-350 £GB
Niort, Nouvelle-Aquitaine
Data Ops Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python Contexte : Mettre en place des outils et des méthodes d'industrialisation et d'automatisation de l’exploitation informatique dans des environnements Data (orchestration des données). • Définir et mettre en place des processus pour une meilleure collaboration/ coordination entre les équipes de développement et d'exploitation. • Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques d’infrastructure as code dans le cycle d'orchestration des données. • Intégrer et maintenir les CI/CD (intégration continue et livraison continue), les tests automatisés pour fluidifier les pipelines de développement et de déploiement. • Configurer les Runners Gitlab pour les différents projets afin d’assurer le déploiement continue. • Assurer la gestion des versions des configurations afin de reproduire facilement les déploiements. • Assurer le monitoring des assets en collaboration avec l'équipe d'exploitation. • Concevoir et maintenir des services d'assistance FINOPS (observabilité). • Fournir une formation et un support aux membres de l'équipe d'exploitation sur les bonnes pratiques, les outils et les technologies utilisées. • Rédiger et maintenir une documentation précise et à jour pour les configurations, les processus et les workflows des solutions mises en place. Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python
Offre d'emploi
Tech Lead Data Engineer
Publiée le
Apache Spark
CI/CD
Hadoop
3 mois
40k-45k €
470-600 €
Paris, France
Télétravail partiel
Informations principales : Secteur : Assurance Localisation : Paris (3 jours par semaine sur site) Date de démarrage : Dès que possible Langue : Français Durée de mission : Jusqu’en février 2028 Profil recherché : Data Engineer (Spark / Hadoop) Expérience minimum : 7 ans Compétences techniques indispensables : Solide maîtrise de Java Excellente maîtrise de Spark Très bonne connaissance de l’écosystème Hadoop (Hive, HDFS, Yarn, HBase, …) Maîtrise des bases de données relationnelles et NoSQL Expérience en optimisation des performances des traitements Batch Spark Connaissance des outils CI/CD (Git, Jenkins, Kubernetes, …) Compétences techniques appréciées : Maîtrise des systèmes de streaming et gestion de flux (Spark Streaming, Kafka) Connaissance de MapR Connaissance de Oozie ou Airflow Expérience en modélisation des données (systèmes analytiques et transactionnels) Connaissance des bonnes pratiques de gouvernance et du cycle de vie des données Compétences générales : Capacité de leadership, encadrement et accompagnement Bonnes aptitudes en analyse technique et fonctionnelle Capacité à vulgariser les aspects techniques Bonne connaissance des méthodes Agiles / SAFe et utilisation de JIRA Connaissance du secteur de l’assurance (vie / prévoyance) Bonne compréhension des problématiques data (qualité, mapping, transformations, etc.)
Offre d'emploi
Architecte Big Data GCP & Cloudera (H/F)
Publiée le
Cloudera
Google Cloud Platform (GCP)
1 an
55k-70k €
550-660 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Architecte Big Data confirmé maîtrisant les environnements GCP (Google Cloud Platform) et Cloudera , capable d’allier vision stratégique et excellence technique. En tant qu’Architecte Big Data, vous interviendrez sur des projets de transformation data à grande échelle : Concevoir et faire évoluer des architectures Big Data hybrides (Cloud & on-premise). Définir la stratégie de données et les bonnes pratiques de gouvernance, sécurité et performance. Encadrer les équipes techniques (Data Engineers, DevOps, Data Scientists). Piloter les choix technologiques sur les écosystèmes GCP (BigQuery, Dataflow, Pub/Sub, Composer, Dataproc) et Cloudera (CDP, HDFS, Hive, Spark, Kafka) . Garantir la scalabilité, la résilience et l’optimisation des coûts des plateformes data. Participer aux revues d’architecture et à la veille technologique sur les solutions Cloud et Open Source.
Mission freelance
Architecte technique Data (H/F)
Publiée le
Architecture
12 mois
650-700 €
Villejuif, Île-de-France
Télétravail partiel
Notre client, banque de détail d'un grand groupe bancaire, cherche à renforcer sa Tribu DATA, transverse à l'ensemble de la DSI. Cette Tribu construit et développe des applications sur la base de puissantes plates-formes DATA à des fins d’usages variés servant toutes les directions métiers de la banque. Pour répondre à ces usages, DAT est au cœur de la stratégie datacentric, et intervient aussi bien au niveau de l’architecture Data, sur les technologies data, Big data, IA, Teradata, SAS, ainsi que sur les solutions analytiques et de datavizualisation. Plus particulièrement dans le cadre de la squad Socles Data, nous recherchonsun Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....). .
Offre d'emploi
Développeur Big Data Scala / Java (Migration DataHub)
Publiée le
Apache Kafka
AWS Cloud
Big Data
12 mois
45k-56k €
500-530 €
Montreuil, Île-de-France
Télétravail partiel
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production. Missions principales : Étude et conception technique des batchs et pipelines data. Développement Spark/Scala pour traitements batch et streaming. Récupération, transformation, enrichissement et restitution des données (ETL/ELT). Création et publication de batchs Kafka (topics / événements). Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring. Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés. Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3). Stack technique (obligatoire / souhaité) : Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé). Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps. Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Offre d'emploi
Développeur SPARK/ SCALA
Publiée le
Apache Kafka
Apache Maven
Apache Spark
3 ans
40k-45k €
400-550 €
Paris, France
Télétravail partiel
Contexte du poste: Dans le cadre du développement de sa plateforme Data & Analytics, l'entreprise recherche un Développeur Spark/Scala expérimenté pour rejoindre une équipe agile en pleine croissance. Vous interviendrez sur des projets stratégiques de traitement de données massives et d’industrialisation de pipelines analytiques dans un environnement Cloud et DevOps. Missions principales: Conception et développement de pipelines Big Data avec Spark & Scala Traitement de données batch et temps réel Optimisation de performances et tuning Spark Implémentation de scripts d’industrialisation et automatisation via CI/CD Participation aux cérémonies Agile et collaboration avec les Data Engineers et Architectes Contribution à la mise en production et au MCO des solutions développées Environnement technique: Langages & Frameworks Scala & Spark (obligatoire) Python (confirmé) Java (optionnel, un plus) CI/CD & Automatisation Jenkins (maîtrise impérative) XLR / XLD (XL Release & XL Deploy) Git, Maven Data & Cloud (bonus) Kafka, Hadoop, HDFS Cloud GCP ou Azure (apprécié)
Mission freelance
Architecte Technique Solution Data
Publiée le
Big Data
Cloudera
3 mois
400-690 €
Île-de-France, France
La Tribu DATA (DAT) construit et développe des applications sur la base de puissantes plates-formes DATA à des fins d’usages variés servant toutes les directions métiers de la banque. Pour répondre à ces usages, DAT est au cœur de la stratégie datacentric de LCL, et intervient aussi bien au niveau de l’architecture Data, sur les technologies data, Big data, IA, Teradata, SAS, ainsi que sur les solutions analytiques et de datavizualisation. Plus particulièrement dans le cadre de la squad Socles Data, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....). LCL SNI TPI PSP 19/09/2025 Page 1 Les solutions doivent être mises en place dans une optique de service performant et évolutif pour nos métiers et utilisateurs divers, prenant en compte l’écosystème informatique LCL actuel ainsi que la stratégie de modernisation future. Le profil recherché doit avoir une connaissance forte des solutions Data de l’écosystème LCL, ainsi qu’une expérience très significative en qualité d’architecte technique Data. Il doit également avoir quelques notions des nouvelles technologies présentées dans le cadre de la stratégie de modernisation de nos plates-formes et être capable de monter rapidement en compétences dessus. Description complémentaire du profil Softskills: Sens du service. Bonne gestion du stress et des priorisations Très bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie (
Offre d'emploi
Consultant MSBI (H/F)
Publiée le
MSBI
Transact-SQL
3 ans
48k-55k €
400-500 €
Île-de-France, France
Télétravail partiel
Missions : - Concevoir, développer et maintenir des flux de données (XLM, JSON, WS, xslt, ..) - Concevoir, développer et maintenir des modèles de données (Sqlserver / Sybase IQ) - Maintenir/Optimiser des cubes SSAS Multi-dimensionnels & Tabular - Mettre en place/maintenir des chaines de batchs (CTRL-M) - Assurer des tâches de support - Contribuer aux projet devops - Rédiger des documentations techniques et des procédures - Participer au dispositif d’astreintes. Stack technique : SQL Server/Sybase IQ, Transact-Sql, CTRL-M, Azure Devops, Jira, Microsoft Visual Studio, XlDeploy, XlRelease, MSBI SSAS, MQ Series, Web Services, Web API, XML,Hadoop,HDFS,HIve,..
Offre d'emploi
Tech Lead Databricks
Publiée le
Databricks
Snowflake
2 ans
La Défense, Île-de-France
Télétravail partiel
Ingénieur Data Confirmé – Databricks / Hadoop / Scala / Kafka (secteur Énergie) 📍 La Défense (92) | 🏠 10 jours de télétravail / mois | 🗓️ Démarrage : novembre 2025 | ⏱️ Mission longue durée Contexte Dans le cadre du renforcement d’un pôle Data stratégique au sein d’un grand acteur du secteur de l’énergie, nous recherchons un Ingénieur Data confirmé pour accompagner la migration d’une plateforme Hadoop open source vers Databricks et Snowflake . Le projet est en pleine expansion, avec une montée en charge prévue jusqu’à 7 collaborateurs. Vos missions Participer à la migration des traitements Hadoop/Scala vers Databricks et Snowflake Concevoir et industrialiser des pipelines data performants et maintenables Optimiser les traitements Spark (Scala/PySpark) Mettre en œuvre des bonnes pratiques DataOps / CI-CD Accompagner la montée en compétence des équipes internes Environnement technique Hadoop (HDFS, Yarn, Hive), Spark, Scala, Kafka, Databricks, Snowflake, Azure Data Factory, Terraform, dbt Profil recherché Solide expérience sur Hadoop full open source, Spark et Scala Bonne maîtrise de Kafka pour les traitements en streaming Expérience sur Databricks et/ou Snowflake Connaissance d’un environnement cloud (idéalement Azure) Autonomie, rigueur, esprit d’équipe et force de proposition Informations pratiques Localisation : La Défense (2 jours sur site / semaine) Télétravail : 10 jours par mois Démarrage : début novembre 2025 Durée : mission longue, renouvelable
Offre d'emploi
Architecte Data Expérimenté
Publiée le
Big Data
Cloudera
Teradata
3 ans
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de l'équipe Socles Data pour un grand acteur bancaire, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plateformes DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux réflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modernisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....).
Offre d'emploi
Data Analyst
Publiée le
Pandas
PySpark
1 an
Île-de-France, France
Mission ne convient pas à un data scientist Compétences OBLIGATOIRES : Guru en PySpark Très bonne maitrise de Tableau et de Panda. Capacité d'analyse, bon niveau statistique. Démarrage : ASAP Experience : 4/5ans min Dans le cadre de ce besoin : En tant que consultant data au sein de la Cellule du Qualité de Fixe (CQF) de Bouygues Telecom, vous serez en charge de produire des analyses à partir de dataset que vous aurez constitués sur des données de nos plateformes Big Data, Vous aurez également la responsabilité de rendre disponible des données, une fois celles-ci nettoyées, préparées et formatées sous forme de dataset ou de table à disposition des datascientists de l'équipe. Vous aurez à développer des tableaux de bord de suivi de KP.. Vous serez en charge de : -L'exploitation de la plateforme Big Data de monitoring Wifi des Box : A ce titre vous aurez la charge : -Du monitoring des principaux KPI du système et la misé en œuvre des nouveaux KPI -Des investigations lors d'incident : Vous déclencherez et piloterez le fournisseur et / ou les autres entités de Bytel contribuant à son bon fonctionnement. -Vous serez le garant de mise à disposition des données issues du cluster HDFS. Vous aurez des scripts Scala / Spark à développer pour toute évolution à la demande de l'équipe Datascience ou en fonction des évolutions du système. -Vous assurez la mise en œuvre des politiques de sécurités et de sauvegarde, et appliquer tout patch ou correctif nécessaire à cette intégrité. -Du pilotage des fournisseurs externes et internes pour les évolutions de la plateforme, que ces évolutions portent sur le hardware, les applicatifs, ou l'architecture réseau. La data ingénierie et l'exploitation de la plateforme Data en architecture de type microservices, basée sur Kubernetes et OpenShift. Vos tâches seront de : -Assurer la supervision et débogage du système via Openshift -S’assurer du bon fonctionnement des applicatifs (Spark, MinIo, Jhub, MySQL, Airflow) -Contrôler les volumes et consommations Hardware de la plateforme -Débugger les pods en cas d’erreur -Assurer l’écriture des graphes Helm pour les déploiements applicatifs -Ecriture de charts Helm pour le déploiement de nouveaux applicatifs -Tester les nouveaux graphes sur la plateforme de test -Déployer et patcher les applicatifs déjà existants avec Helm -Assurer la pérennité de la plateforme en gérant efficacement les images et graphes via GitLab -Assurer la gestion des utilisateurs et des règles de gestion du Datalake -Gestion des buckets et utilisateurs -Création de points de stockage et destis règles de gestion associées -Création de scripts pour le stockage de Parquets -Assurer le fonctionnement du déploiement continu avec GitLab -Administration des images de production Gitlab et DockerHub En résumé : Guru en PySpark et très bonne maitrise de Tableau et de Panda. Avec une capacité d'analyse, bon niveau statistique. Amené à faire du développement descriptif de requête pour diffuser des KPI sous forme de dashboard Tableau.
Offre d'emploi
Ingénieur Big Data DevOps
Publiée le
Apache NiFi
3 ans
Île-de-France, France
Télétravail partiel
Attentes principales du client RUN & Support avancé Assurer le MCO (Maintien en Condition Opérationnelle) des plateformes Big Data. Résoudre les incidents N2/N3 et analyser les root causes pour fiabiliser la production. Accompagnement et relation client Être capable d’ expliquer et de guider les utilisateurs dans l’usage des plateformes. Jouer un rôle de référent technique sur NiFi / Kafka / ingestion de données. Build & industrialisation Concevoir et automatiser les offres d’ingestion de données. Participer aux déploiements NiFi , à l’ industrialisation des flux , et à la mise en place de CI/CD. Administration & Sécurisation Gérer et sécuriser les clusters Big Data et les environnements applicatifs (on-prem et cloud). Gérer le cycle de vie des technologies : upgrades, patchs, migrations. Contribution aux projets Travailler dans un cadre Agile (Scrum/Kanban) . Développer (Java/Spring, React, CSS/JS) et intégrer les solutions nécessaires. Apporter une veille technologique et être force de proposition pour améliorer les plateformes. Compétences clés recherchées Big Data : Apache NiFi (le plus attendu), Kafka, HDFS, Hive, Hue, IBM COS, Oracle DB. CI/CD & automatisation : Ansible, GitLab CI, ArgoCD, Vault. Systèmes & infra : Linux RHEL, Kubernetes, OpenShift, environnements stateful. Dev : Java (Spring Boot / Security), React, CSS3, JS, frameworks UI (Ant Design, Bootstrap, Material). Méthodes : Scrum, Kanban.
Mission freelance
Data Engineer Suite MSBI
Publiée le
ETL (Extract-transform-load)
Microsoft SSIS
OLAP (Online Analytical Processing)
14 mois
270-280 €
Montpellier, Occitanie
Télétravail partiel
Site : Montpellier, 2 jours/ semaine sur site Date de démarrage : 01/10/2025 Mission : Data Engineer sur des activités de run et build Nb années d’expérience : 3 ans Profil : Data Engineer Data Engineer Suite MSBI Attendu : Concevoir et développer des solutions pour la collecte, l'organisation, le stockage et la modélisation des données, Développer un ensemble d'outils d'aide à la décision pour les métiers du client, Enrichissement de données, Production d'indicateurs (KPI), Optimisation et performance, Garantir l'accès aux différentes sources de données et de maintenir la qualité des données, Contribuer à la mise en place d'une politique de données et des règles de bonnes pratiques conformes aux réglementations client en vigueur, Assurer une veille technologique, notamment sur les langages de programmation utilisés afin d’aider à l'avancement des projets. Compétences techniques : ETL SSIS, Cube OLAP SSAS, Requêtage SQL, Connaissance ETL, préparation structuration de données, stockage de fichier (Talend, HDFS, SSIS), Expérience dans la modélisation et dans l’exploitation des bases de données (SQL et NoSQL, Oracle, …), Une connaissance en migration des traitements sous GCP serait un plus (BigQuery)
Mission freelance
Architecte Applicatif
Publiée le
Kubernetes
18 mois
100-600 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 6 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Architecte applicatif Spécialités technologiques : Infrastructure, SSO Compétences Technologies et Outils GIT Docker Bash Hadoop Kubernetes Linux Spark Keycloak Soft skills Autonomie Force de proposition MISSIONS Au sein du département Innovation et Données, vous rejoindrez une équipe de 10 architectes, dont une sous-équipe de 3 personnes dédiée à l’intégration de l’infrastructure du client. Encadré par le Directeur du domaine, vous interviendrez comme référent technique applicatif, en appui des équipes architecture et SOC. L’objectif : accompagner les équipes et les porteurs de projets dans la conception et l’intégration d’applications au sein de la plateforme, tout en garantissant le respect des normes et standards en place. - Être le référent technique applicatif auprès de l’équipe architecture. - Accompagner et conseiller les porteurs de besoins pour proposer des designs applicatifs adaptés ou faire évoluer des solutions existantes. - Concevoir et intégrer des applications dans l’infrastructure (Docker, Kubernetes, Spark). - Garantir la conformité aux normes d’architecture, de sécurité et aux bonnes pratiques en vigueur. - Apporter un support technique aux équipes pour l’intégration et la maintenance (MCO) des produits. - Rédiger la documentation technique et assurer la transmission des connaissances. - Former les équipes N1/N2 à la maintenance et au suivi des outils. - Suivre les projets, identifier les risques et remonter les alertes. - Contribuer à la dynamique de l’équipe et être force de proposition, notamment sur les enjeux sécuritaires. Organisation du temps de travail (indicatif) 70% : études & réalisations techniques 20% : MCO / suivi opérationnel 10% : veille technologique et fonctionnelle Expertise souhaitée Compétences techniques requises - Architecture applicative : expérience confirmée (> 8 ans). - Langages : Python et Bash. - Outils & environnements : Git, Linux (Rocky, Alpine, Ubuntu). - Conteneurisation & orchestration : Docker, Kubernetes (CKS apprécié). - Sécurité & IAM : protocoles SSO (SAML2, OIDC), outils comme Keycloak. - Cloud Native architectures. - Bases de données : SQL / NoSQL, pipelines de traitement (Message Queue, DAG). Compétences bonus : - Environnements : CEPH, Proxmox, SLURM. - Standards santé : FHIR, DICOM, OMOP. - Big Data : Hadoop, Spark, HDFS. - IA : Torch, CUDA, MLOps. - Connaissance des problématiques fonctionnelles dans le secteur santé Profil recherché - Architecte applicatif senior avec un solide background technique. - Capacité à garder une vision métier forte et à accompagner les équipes dans la traduction des besoins en solutions applicatives. - Expérience dans des environnements complexes, nécessitant respect des normes, sécurité et interopérabilité. - Excellentes capacités de communication et de pédagogie (rôle de référent et de formateur). - Force de proposition, autonomie et goût pour l’innovation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Auto-entrepreneur et LMNP au réel
- Quitter l'IT
- Le marché du freelancing et de l’IT en 2026 : à quoi s’attendre ?
- SASU est ce que le pv d'ag existe ou seulement décision de l'associ unique?
- Déclaration de Malt et rectification abusive de l'URSSAF
- Pourcentage total de détention du capital à l'INPI= nue-propriété
16 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois