Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Offre d'emploi
INGENIEUR CLOUD - Confirmé (4-10 ans)
Au sein de la Direction Digital et Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data. En tant qu'Ingénieur devOps H/F, votre mission principale sera de participer au déploiement des projets data du Groupe. La plate-forme utilisée est le Cloud Microsoft Azure. Vous êtes polyvalent(e) et savez communiquer avec les différentes équipes. Afin d'assurer un niveau de sécurité conformes aux exigences du groupement sur les applications du Datalab, vous savez organiser des ateliers, suivre et rendre compte de l'avancement des sujets de sécurisation liés aux résultats d'audit, et apporter des solutions ou des pistes de réflexion en accords avec votre expertise de sécurité de la plateforme cloud Azure, notamment sur la mise en place d'applications Web et d'API. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Le contexte vous plaît ? Découvrez votre quotidien au sein de votre future équipe. Vos missions: -Construire des infrastructures Cloud Public (principalement sur Azure) -Industrialiser les architectures cibles et configurer les équipements (CI / CD) -Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures. -Participer aux phases de validation technique lors des mises en production ou des évolutions. -Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Vos atouts pour réussir DÉPLOIEMENT Configure et dimensionne les plateformes en fonction des performances requises Met en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures Participe aux phases de validation technique lors des mises en production ou des évolutions Travaille en coordination avec les équipes OPS, QA, DEV, Delivery Manager MAINTENANCE Maintient en condition opérationnelle les infrastructures virtualisées en diagnostiquant les pannes et les dysfonctionnements Industrialise les architectures cibles et configurer les équipements (CI / CD) Veille à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées Participe à l'amélioration de la CI/CD Les livrables sont: Construire des infrastructures Cloud Public (principalement sur Azure) Industrialiser les architectures cibles et configurer les équipements (CI / CD) Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation

Mission freelance
Ingénieur DevsOps Fullstack expert /observabilité as code APM Dynatrace
• Améliorer l'ensemble du cycle de vie de la plateforme d’observabilité Dynatrace, de la création à la conception, en passant par le déploiement, l'exploitation et l'optimisation. • Enrichir l’offre de services des fonctionnalités d’observabilité as code qui intègrent des données d’objectifs de niveau de service (SLO) dans les pipelines CI/CD des applications. • Apporter une expertise de développement en matière d’automatisation, de codage, d'algorithmes, d'analyse de complexité et de conception de systèmes à grande échelle. • Assurer l’onboarding des usages et des applications sur la plateforme en respectant les processus et les pratiques • Maintenir les services une fois qu'ils sont en production en mesurant et en surveillant la disponibilité, la latence et la santé globale du système • Assurer un rôle de conseil et de support technique aux équipes DevSecOps de la DSIN • Contribuer activement à la communauté Covea Dynatrace

Offre d'emploi
Concepteur - Développeur OPEN et MAINFRAME (H/F)
Concepteur/Développeur possédant une double compétence OPEN java et mainframe (expérimenté et autonome) pour participer à différents sujets côté Carte (projets, évolutions, assistance, maintenance) Dans le cadre du renforcement de l'équipe "Refonte SI Virements" , nous recherchons un concepteur développeur Open et Mainframe expérimenté qui aura pour missions: ➔ Sur ce projet : - Conception technique - Développement - Test et assistance à recette - Mise en production - Rédaction de la documentation applicative, du dossier de tests unitaires et du dossier de mise en production (DTA)

Mission freelance
Chef de Projet GED technique très expérimenté
Le Chef de Projet GED est rattaché au Directeur de Projets Datacontent. Il intervient durant les phases de conception et de mise en œuvre des solutions logicielles Datacontent et Docubase, en lien direct avec la MOA. Il est l’interface entre les différentes équipes techniques internes et/ou externes (client ou prestataire). Il s’assure ainsi que tous les prérequis techniques sont définis et respectés pour que la mise en œuvre de la solution logicielle soit réalisée dans les conditions optimales et conformes aux engagements de coût, délai, qualité, performance et sécurité. Pour les solutions hébergées au sein de notre Datacenter (SaaS) ou déployées dans le SI du client (On Premise), le Prestataire est amené à : • Animer des ateliers de compréhension et de cadrage du besoin technique, • Coordonner des ressources techniques nécessaires au bon déroulement du projet (développement intégration, homologation, infrastructure), • Rédiger des demandes internes (machines virtuelles ou physiques, ouvertures de flux, …), • Assister la MOA dans la réalisation des recettes, • Participer à la mise en place technique de la solution (paramétrage, intégration de la solution), • Réaliser des scripts et des paramétrages système nécessaires au bon fonctionnement de la solution logicielle globale, • Organiser et piloter les mises en production, • Documenter la solution mise en œuvre en vue du transfert aux équipes d’exploitation. Il sera affecté soit à des nouveaux projets, soit à des évolutions sur des solutions SaaS ou On Premise. Environnement technique : Windows, Linux (Ubuntu) et commandes de bases Web Services, SQL, DOS, Powershell, Shell (Bash, …), CFT, SFTP, XML, JSON, VPN, SSO, Java, Javascript, Tomcat, ...

Offre d'emploi
Architecte C++ Qt (F/H)
L’objectif de la mission est d’apporter une prestation d’architecte applicatif C++ : Le Titulaire de la mission devra concevoir, définir et superviser les architectures applicatives pour différents périmètres, en assurant la cohérence technique, la scalabilité et la maintenabilité des solutions. Principaux objectifs de la mission : •Analyser les besoins métiers et les contraintes techniques du projet. •Définir l’architecture logicielle cible (orientée micro-services et/ou modulaire), assurer la cohérence, la scalabilité et la maintenabilité du système. •Modéliser l’architecture à l’aide d’outils et de standards (UML, ArchiMate). •Encadrer les équipes de développement, assurer la revue de code et la transmission des bonnes pratiques (SOLID, design patterns, etc.). •Garantir la qualité du code, la sécurité, la performance et la conformité aux normes. •Participer à la documentation technique, aux choix technologiques et à la veille technologique. Ce CCAP concerne un (1) architecte applicatif C++, ses principaux livrables sont les suivants : •Modèle ArchiMate détaillant ses travaux sur l’architecture. •Dossiers d'architecture •Dossiers de conceptions •Guidelines techniques •Documentation API •Templates de projets (participation a des modules de l’application blanche) •Supports de formation •Supports & Animation de réunion techniques pour les architectes ou les développeurs •Participation aux livrables pour les comités d’architecture Le profil proposé doit disposer d’une expérience : •A minima de 8 ans dans le développement C++ A minima de 4 ans dans le rôle d’architecte applicatif Expertise C++ (C++17 minimum, idéalement C++20). (10 ans d’expérience minimum) Expertise en programmation orientée objet et principes SOLID. Connaissance approfondie des paradigmes modernes C++. Connaissance de Qt, QML : Framework pour le développement d’interfaces utilisateur. Maitrise de la STL, connaissances de Boost, Connaissance de Drogon apprécié Expertise en programmation orientée objet, Modélisation avec UML 2.O, Design Pattern et principes de conceptions

Mission freelance
Ingénieur/Intégrateur DevOps H/F
Mission Dans le cadre de l’ingénierie et du maintien en conditions opérationnelles d’une plateforme d’observabilité applicative basée sur la solution SaaS Dynatrace , la prestation portera sur : La participation aux projets techniques et fonctionnels, ainsi qu’au traitement des demandes des différentes équipes informatiques et métiers. La garantie du bon fonctionnement, de la performance et des évolutions de l’offre de services Observabilité Dynatrace, en adéquation avec les attentes des utilisateurs. Une réalisation de la mission idéalement depuis le site du Mans. Prestations attendues Le prestataire interviendra notamment pour : Optimiser le cycle de vie complet de la plateforme : conception, déploiement, exploitation et amélioration continue. Développer et intégrer des fonctionnalités d’ observability as code , incluant la gestion automatisée des objectifs de niveau de service (SLO) dans les pipelines CI/CD. Apporter une expertise en automatisation, développement, algorithmes, analyse de complexité et conception de systèmes à grande échelle. Assurer l’onboarding des usages et des applications sur la plateforme, conformément aux pratiques et processus établis. Maintenir les services en production en surveillant la disponibilité, la latence et l’état global du système. Fournir un rôle de conseil et de support technique aux équipes DevSecOps. Contribuer activement à l’animation de la communauté Dynatrace interne.

Mission freelance
Développeur fullstack java vue.js
Notre client, acteur majeur du secteur des télécommunications, recherche un profil Développeur JAVA Fullstack pour intervenir sur les applications dans le cadre de la roadmap projet. Mission Cadrage technique des évolutions sur la plateforme de vente Évaluation des charges (en jours de développement) pour chaque évolution/projet Développement des évolutions à partir des JIRA spécifiés Réalisation des tests unitaires Déploiement des applicatifs sur les environnements IPP1 et/ou IPP2 Correction des anomalies remontées par les équipes de recette

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP
L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse
Offre d'emploi
Ingénieur Observabilité (Dynatrace / DevOps)
Au sein d’une équipe en charge de l’ingénierie et du MCO d’une plateforme d’observabilité applicative basée sur Dynatrace (SaaS) , vous interviendrez sur des projets techniques et fonctionnels, ainsi que sur les demandes des différentes équipes IT et métiers autour du périmètre observabilité. Vous contribuerez à garantir le bon fonctionnement et l’évolution de l’offre de services d’observabilité, en lien avec les besoins opérationnels. Prestations attendues : Améliorer l’ensemble du cycle de vie de la plateforme d’observabilité (conception, déploiement, exploitation, optimisation). Enrichir l’offre de services en développant des fonctionnalités Observability as Code et en intégrant des SLO dans les pipelines CI/CD. Apporter une expertise en automatisation, développement, analyse de complexité et conception de systèmes à grande échelle . Assurer l’onboarding des applications et accompagner les équipes utilisatrices. Maintenir les services en production en surveillant disponibilité, performance et santé globale du système. Fournir un rôle de conseil et de support technique aux équipes DevSecOps. Contribuer activement à la communauté interne Observabilité / Dynatrace.
Mission freelance
Ingénieur de Production DevOps / Expertise JBoss
Dans le cadre du renforcement de l’équipe monétique, nous recherchons pour notre client Ingénieur de Production DevOps pour intervenir sur la chaîne de production des applications critiques de paiements. La mission consiste à automatiser, sécuriser et superviser les déploiements et l’exploitation des environnements applicatifs. MISSIONS : Assurer le déploiement et l’exploitation d’applications critiques sur les environnements de production, gérer l'obsolescence des serveurs d'applications. *Participer à la conception des architectures techniques et aux choix d’outillage *Mettre en place des chaînes CI/CD automatisées (Jenkins, XL Release / XL Deploy) *Administrer les serveurs web et d’applications : Apache, IHS, HAProxy, JBoss, Tomcat *Gérer l’ordonnancement des traitements batch (VTOM et Control-M) *Créer et maintenir des dashboards de suivi opérationnel *Participer au suivi de production, à la gestion des incidents, et aux astreintes éventuelles Compétences requises : JBOSS, TOMCAT, WAS, VTOM, XLR, XLD, APACHE, IHS OpenShift / Kubernetes un plus 🔧 DevOps & Automation : Jenkins, XL Release / XL Deploy GitLab CI, Ansible, Terraform, Docker Langages : Bash, Python, YAML 📦 Serveurs : Web : Apache, HAProxy, IHS Application : JBoss, Tomcat , WAS Ordonnancement : VTOM, Control-M Supervision : Grafana, Prometheus, ELK, Zabbix

Mission freelance
Data Engineer (GCP / Python / DBT)
Nous recherchons un Data Engineer confirmé pour accompagner les produits data de notre périmètre Connaissance Client et Commerce Animation Performance . 🎯 Objectif de la mission Mettre en place une cartographie des données . Concevoir un Datamesh adapté et partagé , incluant son dimensionnement. Déployer un Datamesh avec sondes de contrôle qualité garantissant la fiabilité des données. 🚀 Responsabilités Créer des pipelines robustes et optimisés afin de mettre à disposition les données de manière efficace et avec un coût FinOps maîtrisé. Maintenir et faire évoluer les produits data existants. Collaborer avec les équipes métier dans un environnement Agile (Scrum/Kanban) . 🛠️ Compétences attendues Python (Flask, appels API, Kafka) – Confirmé (impératif). GCP (BigQuery, GCS, Cloud Run, …), DBT – Confirmé (impératif). Github (CI/CD, versioning) – Confirmé (important). Méthodologies agiles (Scrum, Kanban) – Confirmé. Anglais courant – Impératif. ❌ À noter Nous recherchons un Data Engineer , et non un Data Scientist. 📍 Mission longue durée – Démarrage rapide – Contexte stimulant au sein d’une équipe data en structuration.

Offre d'emploi
Architecte Data Expérimenté
Dans le cadre du renforcement de l'équipe Socles Data pour un grand acteur bancaire, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plateformes DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux réflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modernisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....).

Mission freelance
Développeur full stack Java/Vue (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur full stack Java/Vue (H/F) à Lille, France. Les missions attendues par le Développeur full stack Java/Vue (H/F) : Dans le cadre d'une équipe multi produits composée de 2 POs ,d'un RA, d'un Tech Lead et de 3 devs , le développeur full stack sera amené à : - Maintenir en conditions opérationnelles la version mise en production. - Faire évoluer les produit en fonction des priorités définis par le PO. - Intervenir sur l'application dans son intégralité en suivant les OKRs digitaux. - Rendre évolutive les solutions au fur et à mesure des sprints. - Travailler avec les PO sur les futures demandes des utilisateurs. - Travailler avec le Tech lead pour proposer des solutions techniques répondant aux besoins métier exprimés.

Mission freelance
Tech Lead Java
Contexte de la mission L'équipe conçoit et développe une plateforme interne permettant à toutes les équipes Data de l’entreprise de définir et d’automatiser des règles de qualité des données exécutées sur les datasets présents dans BigQuery. Ces règles peuvent être définies à partir de requêtes SQL personnalisées ou via des templates prédéfinis appelés Data Quality Metrics, qui mesurent diverses dimensions de la qualité des données : 🧭 Consistency, 🧩 Conformity, 🧱 Integrity, 📏 Completeness, 🎯 Accuracy, ⏱ Timeliness, 🔍 Uniqueness. L’outil permet de : - Planifier l’exécution des règles (scheduling) - Être notifié par email, slack en cas de non-respect des quality gates - Visualiser l’historique des métriques sous forme de graphes 👥 Composition de l'équipe - 1 Développeur Front-end senior (Vue.js) - 1 Développeurs Back-end expert - 1 Product Owner (mi-temps) - 1 Product Manager - 1 Tech Lead (tiers temps) 🧩 Objectifs de la mission En tant que Tech lead, vous serez intégré au cœur de l’équipe et participerez activement à : - La conception et l’implémentation de nouvelles fonctionnalités métier autour des règles et métriques de qualité - L’évolution de l’architecture modulaire du back-end (Spring Boot/Java 21) - L’amélioration de la scalabilité et fiabilité de la plateforme (Kafka, Kafka Stream, Firestore, PostgreSQL, GKE) - La revue de code, le mentorat éventuel et l’amélioration continue de la qualité du code - Le maintien et le monitoring de l'application ⚙️ Stack technique Back-end : - Java 21 - Spring Boot 3 - Kafka, Kafka Streams - Firestore, PostgreSQL - GitHub CI/CD (GitHub Actions) - Déploiement sur Google Cloud (App Engine, GKE) Front-end : - Vue.js, (Svelte éventuellement)
Mission freelance
Développeur Big Data
Métier : Data Management, Développeur Big Data Spécialité technologique : Big Data Type de facturation : Assistance Technique (facturation au taux journalier) Compétences techniques : Spark (5 ans) Hive (Cloudera, 5 ans) Java Hadoop (5 ans) Soft skills : Autonomie Rigueur Leadership Description et livrables de la prestation : Intégré au chapitre DATA, entité transverse, le consultant intervient dans un environnement où la donnée est stratégique. Il accompagne les équipes métiers dans la conception et l’industrialisation des solutions DATA, notamment pour l’analyse de risques liés à des investissements et prêts professionnels. En tant que référent technique et méthodologique, il garantit la qualité, la cohérence et la performance des solutions Big Data déployées sur les plateformes SPARK et CLOUDERA. Missions principales : Appuyer les équipes métiers pour formaliser et concevoir des solutions DATA robustes et évolutives Participer à la construction de pipelines de données performants (traitement, transformation, ingestion, qualité) Assurer la mise en œuvre technique des projets sur l’écosystème Big Data (SPARK, CLOUDERA, HADOOP) Challenger les besoins métiers pour garantir leur pertinence et faisabilité Promouvoir les bonnes pratiques de développement et d’architecture DATA Contribuer à la maturité data de l’organisation en accompagnant les équipes vers plus d’autonomie et de rigueur dans la manipulation des données

Offre d'emploi
Tech Lead Framework
PRINCIPALES ACTIVITES / PROCESSUS RATTACHES Expert Technique au sein de l'équipe Transverse Framework a. Est force de proposition sur la stratégie d’évolution du Framework Estreem : choix techniques, conception logicielle et sécuritaire b. Maitrise les outils de développeurs logiciels c. Est le garant des normes de développement d. Expérience Cloud et Conteneurisation Evolution du framework de développement a. Développe les évolutions sur le framework Estreem b. Développe les tests unitaires et tests d’intégration associées c. Garantie la non-régression et dans la mesure du possible la compatibilité ascendante Assistances équipes produits a. Est le point de contact des équipes produits pour de l’assistance à la résolution de problématiques complexes liées au développement et à l’environnement b. Accompagne les équipes produites dans la prise en charge du framework et plus particulièrement les montées de version Compétences : - Languages/Frameworks : Java, stack Spring, Camel - Capacité d’analyse et de synthèse - Environment: Windows + RedHat, Oracle, PostGres, MongoDB, Kafka, Tibco, MQ, Dockers, Openshift - Proactivité et créativité - Outils : IntelliJ/Eclipse, Git, Sonar, Elastic stack - Capacité d’apprentissage - Protocoles / Standard sécurité : SSL, OAuth2, OIDC - Sens de la Pédagogie
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Apache
Administrateur·rice système Unix (linux...)
L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.
Explorez les offres d'emploi ou de mission freelance pour Administrateur·rice système Unix (linux...) .
Découvrir les offresIngénieur·e systèmes & réseaux
L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresIngénieur·e d'exploitation
L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e d'exploitation .
Découvrir les offresResponsable des infrastructures et de la production
Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres