Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 308 résultats.
Freelance

Mission freelance
Développeur Back-End Java — Moteurs de Notation Risque

Hexagone Digitale
Publiée le
Apache Kafka
IFRS 9
Java

12 mois
Paris, France
Dans le cadre d’un renfort d’équipe, nous recherchons un Développeur Backend Java pour intervenir au sein de la DSI Risques d’un grand groupe bancaire. La mission concerne le développement et l’évolution de moteurs de notation (Credit Scoring / Risk Rating Engines). L’environnement est structuré, organisé en mode Agile, au sein d’une DSI de grande envergure reposant sur une architecture distribuée complexe.. Rôle et responsabilités · Développement backend Java · Implémentation des composants des moteurs de notation · Contribution aux développements critiques · Participation aux rituels Agile · Correction d’anomalies et évolutions · Respect des standards techniques groupe Livrables attendus · Développements backend Java · Participation aux livraisons applicatives · Documentation technique liée aux développements Compétences requises Must have · Java · Spring / Spring Boot · Expérience en environnement bancaire · Expérience en systèmes distribués · Méthodologie Agile Nice to have · Connaissance domaine Risques · Exposition FRTB / IFRS9 · Kafka / Spring Batch
CDD
Freelance

Offre d'emploi
Ingénieur(e) DevSecOps F/H

CGI
Publiée le
Administration linux
Ansible
Apache

1 an
Lyon, Auvergne-Rhône-Alpes
Vous rejoignez CGI, leader mondial du conseil et des services numériques à Lyon et accompagnez nos clients. A Lyon, nos équipes accompagnent nos clients grands comptes dans la mise en œuvre de leurs projets stratégiques. Nos services couvrent l'ensemble du cycle de production logiciel, de l’amont des projets à la maintenance de solutions dans des domaines variés comme l'énergie, le transport, la pharma, le secteur public, la finance ou les télécommunications. Notre agence abrite également le centre mondial d'excellence de CGI dédié à la digitalisation de la supply chain, offrant ainsi de multiples perspectives d’évolution de carrière. Nous recherchons un Ingénieur DevSecOps confirmé, spécialisé en PKI et maîtrisant les environnements Linux et l’automatisation. Vous interviendrez sur un projet mêlant BUILD et MCO, avec de forts enjeux de sécurité, d’industrialisation et de fiabilité des chaînes de certification au sein d’un environnement critique. Fonctions et responsabilités : Contribuer au BUILD et au MCO d’une plateforme PKI Administration et intégration de solutions PKI / Autorités de Certification (AC) dont EJBCA Automatiser les déploiements, configurations et opérations via Ansible Développer ou maintenir des scripts (Python, Bash) Contribuer à la supervision : tableaux de bord, alerting, exploitation avec Grafana Intervenir sur les environnements virtualisés / cloud interne (OpenStack) Participer au RUN : diagnostics, analyse d’incidents, actions curatives et préventives Maintenir et améliorer les pipelines GitLab CI , la gestion des images et artefacts ( Docker, JFrog ) Administrer / configurer serveurs Apache / Nginx Rédiger la documentation technique et utilisateurs Participer activement aux cérémonies Agiles (daily, sprint planning, review, rétro…) En nous rejoignant, vous bénéficiez notamment des avantages suivants : - Offre complète de formations : techniques, métiers, développement personnel - Qualité de vie au travail : jusqu’à 3 jours de télétravail par semaine, 27 jours de congés payés, RTT, congés ancienneté et enfant malade, programme santé & bien-être - Avantages sociaux : régime d’achats d’actions, participation, PEE, Compte Epargne Temps Et bien d'autres encore ! Qualités requises pour réussir dans ce rôle : Expertise DevSecOps, idéalement orientée PKI Appétence forte ou expérience significative en PKI / AC Très bonne maîtrise Linux Maîtrise Ansible Connaissance Python (scripting) Connaissance OpenStack Connaissance Grafana Connaissance GitLab CI , Docker , JFrog Connaissance Apache / Nginx Aisance dans les environnements d’exploitation (RUN / MCO) Atouts / Compétences appréciées : Expérience en exploitation dans un contexte critique Capacité à rédiger de la documentation claire et structurée Bonne compréhension et pratique des méthodes Agiles CGI est un employeur inclusif et attentif aux candidatures des personnes en situation de handicap, à l’évolution de carrières des hommes et des femmes et au bien-être de nos salariés LGBT+. Notre engagement en faveur de la diversité et de l’inclusion a été reconnu par l’obtention du label recrutement inclusif, décerné par Job in Live, acteur spécialisé dans le recrutement inclusif. Dans un souci d’accessibilité et de clarté, le point médian n’est pas utilisé dans cette annonce. Tous les termes employés se réfèrent aussi bien au genre féminin que masculin.
Freelance

Mission freelance
Team Leader Data Engineering (H/F)

AGH CONSULTING
Publiée le
Apache Kafka
Confluence
Data management

6 mois
250-500 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Team Leader Data Engineering qui, sous la responsabilité du Head of Engineering Logistique, sera responsable de l'équipe Data Engineering dédiée à la plateforme C-Logistics. Véritable référent technique et manager opérationnel, vous agirez comme facilitateur, coach technique et moteur de la performance de l'équipe, en s'appuyant sur les principes du Lean management. Vous contribuerez à la mise en oeuvre d'une plateforme data performante, fiable et scalable, en étroite collaboration avec le Product Manager et les équipes métiers. À ce titre, vos principales responsabilités seront : -Piloter et accompagner l'équipe Data Engineering -Optimiser les processus de delivery et d'industrialisation des pipelines data -Identifier, analyser et résoudre les causes racines des incidents de production -Favoriser l'autonomie, la collaboration et la montée en compétence de l'équipe -Garantir la performance, la fiabilité et la scalabilité des solutions data -Assurer l'alignement des solutions techniques avec la vision produit -Contribuer à l'amélioration continue des pratiques techniques et organisationnelles Périmètre Le poste couvre : -La production et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics -Le partage de données avec les autres filiales du groupe -Le partage de données avec les clients B2B Environnement technique : Vous évoluerez dans un environnement data moderne comprenant : -Snowflake -SQL -Talend -DBT -Kafka -Python -Power BI Outils utilisés : -Jira -Confluence Équipe : Vous encadrerez une équipe composée de : 4 Data Engineers et 1 Lead Developer
CDI
Freelance

Offre d'emploi
Développeur Full Stack

Lùkla
Publiée le
Apache Kafka
CI/CD
CSS

2 ans
55k-63k €
500-550 €
Yvelines, France
Le profil recherché est un développeur fullstack. La mission se déroulera au sein d’une direction informatique, rattachée à une équipe d’ingénierie logicielle et de développements digitaux. Au sein d’une équipe agile d’environ 6 personnes, le profil interviendra sur les évolutions de plusieurs produits applicatifs transverses ainsi que sur la maintenance de plusieurs applications existantes. Principales tâches : Participer à la conception et à l’estimation des fonctionnalités à implémenter Développer les fonctionnalités et les tests associés dans le respect des normes, de l’ergonomie et des bonnes pratiques d’ingénierie logicielle Contribuer au maintien de la plateforme d’intégration continue Participer à la réduction de la dette technique et à l’amélioration continue
CDI

Offre d'emploi
Manager Plateformes et Outils Data - CDI

CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud

Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
Freelance

Mission freelance
Ingénieur Ops / Build

HAYS France
Publiée le
Apache Kafka
Argo CD
Dynatrace

1 an
290-500 €
Île-de-France, France
Nous recherchons pour un de nos clients basés en IDF, un Ingénieur Ops / Build pour une mission freelance (longue visibilité) Ingénieur Ops / Build 1. Contexte du besoin Dans le cadre du renforcement de nos équipes techniques, nous recherchons un Ingénieur Ops / Build disposant d’une forte expertise sur les environnements de production, les pipelines de déploiement et l’industrialisation des processus applicatifs. L’objectif est de garantir la fiabilité, la performance et la continuité opérationnelle des plateformes critiques de l’entreprise. 2. Mission L’Ingénieur Ops / Build interviendra au sein de l’équipe en charge du cycle de vie applicatif et des chaînes CI/CD. Il aura notamment pour responsabilités : Assurer la construction, l’industrialisation et l’automatisation des environnements de déploiement. Participer à la gestion et l’évolution de la stack technologique associée aux run & build. Collaborer étroitement avec les équipes Développement, SRE et Production. Contribuer à l'amélioration continue des processus et à la fiabilisation des plateformes. Garantir un haut niveau de communication et de coordination entre les différents interlocuteurs métier et techniques. 3. Périmètre d’intervention Les principales missions seront les suivantes : Build / Industrialisation Conception, optimisation et maintenance des chaînes de déploiement (CI/CD). Mise en place et gestion des workflows de déploiement via Argo CD . Industrialisation des processus de build applicatifs. Ops / Plateformes Administration et exploitation de clusters Kubernetes . Gestion des systèmes et environnements automatisés ( Autosys ). Suivi et gestion de la plateforme de messages Kafka . Observabilité & Performance Supervision et analyse de performance via Dynatrace . Mise en place de dashboards, alertes, KPIs, suivi de disponibilité. Base de données Collaboration avec les équipes BDD autour d’environnements Oracle . Suivi des performances, optimisation et bonnes pratiques d’intégration. Déploiement Participation à l'ensemble du cycle de déploiement (préparation, exécution, validation). Investigation et résolution d’incidents liés aux builds, pipelines, déploiements ou environnements. 4. Compétences requises Compétences techniques indispensables Kafka (installation, configuration, tuning, monitoring) Kubernetes (clusters, Helm, admission controllers, troubleshooting) Argo CD (GitOps, pipelines, stratégies de déploiement) Autosys (jobs, scheduling, analyses des runs) Dynatrace (apm, dashboards) Base de données Oracle (requêtes, optimisation, intégration app) Environnements Linux (shell, scripting, automatisation) Compétences transverses Bonne compréhension des pratiques DevOps Connaissance CI/CD (GitLab, Jenkins ou équivalent) Très bonne communication orale et écrite Capacité à vulgariser des sujets techniques complexes Analyse, rigueur, sens du service Langues Bon niveau d’anglais (oral et écrit requis pour contexte international) 5. Profil recherché Expérience confirmée (minimum 4–5 ans) sur un rôle Ops / Build. Capacité à travailler en autonomie tout en évoluant dans un environnement collaboratif. Esprit d’équipe, proactivité, leadership technique. Mindset orienté solution, communication fluide, pédagogie. 7. Livrables attendus Pipelines CI/CD fonctionnels et optimisés Documentation technique à jour Tableaux de bord Dynatrace / monitoring opérationnel Procédures et runbooks de déploiement Plans d’amélioration continue
CDI

Offre d'emploi
Développeur Java Senior

ASTRELYA
Publiée le
Apache Kafka
Argo CD
AWS Cloud

La Garenne-Colombes, Île-de-France
Vous rejoindrez un programme stratégique de refonte de la plateforme B2C dans le secteur de l'énergie à l’échelle mondiale, dans un environnement Agile Scrum et collaboratif avec des équipes réparties dans plusieurs pays. Ce projet vise à construire des solutions innovantes et scalables sur AWS Cloud, en s’appuyant sur les meilleures pratiques DevOps et CI/CD. Responsabilités principales : Développer et concevoir des applications Java robustes et performantes, basées sur des architectures microservices et orientées cloud AWS. Participer activement au développement (rôle de doer) : codage, revue de code, tests, optimisation. Définir et promouvoir les bonnes pratiques de développement, qualité et sécurité du code. Encadrer et guider les développeurs juniors, en jouant un rôle de mentor technique. Collaborer avec les équipes internationales (produit, architecture, data) pour garantir la cohérence et la performance des solutions. Stack technique : Langages & Frameworks : Java, Spring Boot Cloud & Infra : AWS (Lambda, EC2, S3, RDS), Terraform, GitOps Intégration & Services : Microservices, API Management, Kafka, Redis, PostgreSQL CI/CD & DevSecOps : GitHub Enterprise, JFrog, SonarQube, ArgoCD Observabilité & Sécurité : Datadog, Prisma Cloud Collaboration : Jira, Confluence
Freelance

Mission freelance
Architecte Data AWS (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Apache NiFi
Apache Superset

2 ans
550-610 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data AWS (H/F) à Lyon, France. Contexte : Dans le cadre d’un programme de transformation Data, nous souhaitons consolider son socle data autour d’une architecture cible fiable, évolutive et sécurisée. L’architecte data interviendra en support de l'équipe existante, en assurer la validation technique et fonctionnelle, et mettre en œuvre les mesures de sécurité nécessaires. Les missions attendues par le Architecte Data AWS (H/F) : Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager sur des solutions et architectures mises en œuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues. Environnement technique : Architecture et modélisation : Conception de modèles de données (relationnels, NoSQL, dimensionnels, etc.). Maîtrise des architectures Data Warehouse, Data Lake et Data Mesh. Base de données : Expertise en systèmes de gestion de bases de données SQL, NoSQL et notamment PostgreSQL, Snowflake, ElasticSearch et DuckDB Cloud Computing : Connaissance approfondie des services de données des fournisseurs Cloud et notamment AWS Langages et technologies : Intégration & Flux : Apache Nifi ; Transport & Temps Réel : Apache Kafka ; Visualisation (BI) & Reporting : Apache Superset Gouvernance Data : Définition des politiques, des standards et des normes pour garantir la qualité, l'intégrité et la gestion du cycle de vie des données. Sécurité : Connaissance des principes de cybersécurité et maîtrise de la réglementation sur la protection des données (notamment le RGPD). Approche Secure by design (chiffrement, gestion des accès, observabilité, supervision).
Freelance

Mission freelance
Data Quality Manager

CAT-AMANIA
Publiée le
Apache Spark
AWS Cloud
Collibra

1 an
100-490 €
Lille, Hauts-de-France
VOS RESPONSABILITÉS PRINCIPALES Recueillir et évaluer les besoins en matière de qualité des données Accompagner et organiser des ateliers avec les data owners pour comprendre le cycle de vie des données et collecter les exigences en matière de qualité des données (règles, impacts de la non-qualité, parties prenantes, etc.) Interagir et se coordonner avec les autres parties prenantes du projet (Data Steward, Data Engineer,…) pour s’aligner sur les contrôles Vérifier et valider la pertinence des règles de qualité des données et leur faisabilité Documenter les règles de qualité dans le catalogue de données (Collibra) Mettre en oeuvre les normes et politique de qualité des données sur votre périmètre pour garantir l'opérabilité des données tout au long de leur cycle de vie dans l'entreprise Concevoir et mettre en œuvre des outils de contrôles et de visualisations de la qualité des données, y compris des alertes pour détecter les erreurs et les incohérences Mettre en œuvre et animer les processus de remédiation afin d’assurer l’amélioration continue du dispositif de qualité des données Développer et appliquer des stratégies pour l'amélioration continue de la qualité des données, en collaboration étroite avec les producteurs de données et les équipes techniques. Sensibiliser les parties prenantes internes à l'importance de la qualité des données, en les formant aux bonnes pratiques et en assurant un suivi régulier. Implémenter des outils pour automatiser les tâches de contrôle et de correction des données. Contribuer et participer activement à la communauté des Data Quality Manager
Freelance
CDI

Offre d'emploi
Developpeur Fullstack JAVA/ANGULAR/GCP h/f

NITROLABZ By SYNC-DIGITALS SAS
Publiée le
Apache Kafka
Cloud
Git

3 ans
40k-45k €
360-390 €
Annecy, Auvergne-Rhône-Alpes
🚀 Nous renforçons nos équipes en Île-de-France ! Nous recherchons 2 profils seniors passionnés pour travailler sur un projet stratégique pour notre client, avec possibilité de télétravail partiel. 📌 Profils recherchés : 1️⃣ Développeur / / 2️⃣ Développeur / 🎯 Séniorité : Minimum 3 ans d’expérience ⌚ Démarrage : ASAP 📍 Localisation : Île-de-France Compétences communes exigées : 👉Maîtrise d‹e , , et principes 👉Maîtrise des bases de données / NoSQL 👉Expérience sur projets / Event-driven / Streaming data 👉Connaissances sur , Storage, , ou 👉Anglais opérationnel 👉La maîtrise du cloud est impérative 💡 Vous êtes passionné par le développement cloud et les architectures modernes ? Rejoignez-nous et participez à un projet à fort impact ! N'hesitez pas à nous envoyer votre candidature sur 📩
Freelance

Mission freelance
Développeur Full Stack (Java/JS)

ESENCA
Publiée le
Apache Kafka
API REST
CI/CD

1 an
Lille, Hauts-de-France
⚠️ Recherche exclusivement localisée dans la région Hauts-de-France (Nord). 🎯 Objectif global Développer et maintenir des solutions digitales dédiées au référencement produit et à la gestion de l’offre , au sein d’un environnement digital structurant plusieurs produits et services. 📌 Contexte de la mission Vous intervenez au sein d’une équipe produit travaillant sur des solutions digitales liées à la gestion et à la diffusion de l’offre produit. L’équipe est composée d’un Product Manager, d’un Tech Lead, de responsables applicatifs, de Product Owners, d’un QA et de développeurs . Elle prend en charge plusieurs produits digitaux interconnectés. Dans ce cadre, vous serez amené à intervenir principalement sur deux applications : Un produit backend exposant des APIs REST et des flux Kafka , permettant de distribuer des données issues d’un système éditeur vers différents services de l’écosystème digital. Une application web Node.js / Vue.js , dédiée à la valorisation et à la gestion de marques et catalogues produits. Le contexte est international, multi-entités et en constante évolution , avec un environnement technique moderne et orienté cloud. 🧩 Missions principalesDéveloppement Concevoir, développer et maintenir des applications back-end et front-end . Développer des APIs synchrones (REST) et asynchrones (Kafka) . Contribuer à la qualité, la performance et la stabilité des applications. Maintenance & amélioration continue Assurer la maintenance corrective et évolutive des solutions existantes. Participer aux optimisations techniques et à l’amélioration des performances. Garantir la sécurité, la disponibilité et la scalabilité des services. Collaboration & pratiques agiles Travailler en collaboration avec les équipes produit et techniques. Participer aux rituels agiles et à la vie de l’équipe. Contribuer à la documentation technique et au partage de connaissances. 💻 Compétences techniques requisesImpératif – Niveau Expert Java et son écosystème TypeScript Node.js Impératif – Niveau Confirmé Nuxt / Vue.js 3 et son écosystème (routing, state management, SSR, Pinia) Environnement technique Backend : Node.js (Express / NestJS), APIs REST, Kafka Frontend : Vue.js 3 / Nuxt 3 Bundling : Webpack, Babel, Vite Bases de données : PostgreSQL, MongoDB, Redis Tests : Jest, Vitest, Cypress ou Playwright API : OpenAPI / Swagger, KafkaJS, AVRO CI/CD : GitHub Actions Outils collaboratifs : GitHub, Confluence, GitBook Serait un plus Docker et notions Kubernetes CI/CD as Code Approche Contract-first pour les APIs Architecture hexagonale TDD Utilisation d’outils d’assistance au développement (ex : Copilot) 🌍 Compétences linguistiques Français courant – impératif Anglais professionnel – impératif
Freelance
CDD

Offre d'emploi
Développeur mobile React Native / Data Engineer H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
Databricks

12 mois
55k-60k €
400-450 €
Île-de-France, France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. Vous interviendrez sur les sujets suivants : Développement mobile Assurer la maintenance évolutive et corrective d’une application mobile en React Native Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) Data Engineering Concevoir, développer et implémenter des solutions Big Data Analytics Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) Rédiger la documentation technique (DAT, release notes, etc.) Réaliser des tests unitaires et assurer la qualité des livrables Contribuer à la maintenance évolutive et corrective des traitements Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés
Freelance

Mission freelance
Consultant ORACLE GL / FA / TAX / CB / PO – H/F

HAYS France
Publiée le
Apache Kafka
API
Enterprise Service Bus (ESB)

1 an
380-520 €
Lille, Hauts-de-France
Dans le cadre du programme FPDP (Finance & Performance Digital Platform), notre client, groupe international du secteur retail recherche un Consultant Oracle ERPC confirmé pour intervenir sur les domaines GL / FA / TAX / CB / PO. Vous intégrerez la guilde dédiée du projet ERPC Oracle, en appui sur les processus R2R et Transverse. Vos missions Contribuer aux évolutions et à l’amélioration continue de la solution ERPC Oracle Réaliser le setup technique et implémenter de nouvelles sociétés Spécifier et mettre en place des interfaces avec des composants externes Développer et intégrer des API Participer ponctuellement au RUN (support niveau L3) Participer aux reprises de données lors des déploiements Produire les spécifications techniques et assurer la documentation Assurer le suivi opérationnel via JIRA / Kanban
Freelance

Mission freelance
Data Architecte AWS / Iceberg

Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API

12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Freelance

Mission freelance
INGENIEUR DE PRODUCTION VTOM sénior H/F

Cheops Technology
Publiée le
Apache
AWS Cloud
CFT (Cross File Transfer)

1 an
400-450 €
Saint-Denis, Île-de-France
Nous recherchons pour un de nos clients un ingénieur VTOM H/F: Intégrer et déployer en méthode AGILE les évolutions de la ligne de Service Ordonnancement (VTOM). Préparer la mise en exploitation des évolutions ou d’une évolution d’application dans un système d’information tout en s’attachant à vérifier que les applications insérées dans le système d’information fonctionnent conformément aux attentes techniques et métiers, et que les procédures d’exploitation sont conformes aux standards établis. Gérer la relation avec les Clients et Projets Applicatifs en vue de garantir et améliorer la qualité des services de production et d’améliorer globalement les services de la ligne de Service ordonnancement Assure la maintenance et l’évolution des plateformes VTOM. •Créer/maintenir les scripts nécessaires pour l’ordonnancement. •Créer et encapsuler des scripts fonctionnelles •Paramétrer les jobs VTOM •Préparer la télédistribution en production •Maintenir en condition opérationnelle des chaines d’ordonnancements et des plateformes. •Accompagner les solutions métiers pour la rédaction de leur plan d’ordonnancement. •Assister et conseiller les équipes projets sur les différentes solutions pour leur ordonnancement applicatif. •Participer à la définition des architectures techniques •Définir / supprimer / modifier les plans d’ordonnancement •Maintenir les documentations •Participer à la conception des feuilles de route techniques des plateformes Environnement fonctionnel et technique : Environnement : Hébergement Datacenter et cloud (Aws, Azure) SGBD Oracle, Micrososft Sql Server, Postgresql, Ingres 9.2 sur Solaris , NoSQL Couchbase, Redis, MONGODB, PAAS SGBD (AWS et Azure) Serveurs Unix Solaris / AIX, Linux Suse / Red Hat / Centos / Ubuntu, Windows Server Middlewares Apache, Tomcat, Weblogic, CFT, MQ Server, SFTP, JMS, VTOM, suite logicielle TIBCO, Networker, Oracle Tuxedo Plateformes/ logiciels / Outils Teraform, Jenkins, Ansible, squash TM, Postman, Docker, Kubernetes, Databricks, Script Shell, Python Supervision Nagios, Datadog, SpluNK
Freelance

Mission freelance
POT8892 - Un IED Java / Spark / Scala / SIG sur Ecully

Almatek
Publiée le
ITIL

6 mois
230-400 €
Écully, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients, Un IED Java / Spark / Scala / SIG sur Ecully Profil recherché : IED Sénior Java / Spark / Scala / SIG Une expérience >5 ans sur des technologies SPARK & JAVA est nécessaire. Une connaissance des librairies géographiques dans Spark est un plus. Une connaissance d'une solution similaire (exemple Apache Beam) est un plus. Contexte client : Dans le cadre de la mise en place d'un socle SIG (Système d'Information Géographique) permettant la gestion des risques climatiques, notre client souhaite s'appuyer sur des expertises de développement en Spark Java, si possible avec une connaissance des librairies Géographiques, dans un environnement Google Cloud platform. Le projet consiste à industrialiser des modèles définis par la direction actuariale, afin d'intégrer des données géographiques, topographiques, satellites, des données métier, pour définir les scores de risque des différents risques climatiques (inondation, sécheresse, tempête, etc. Sur le périmètre confié, en coordination avec l'équipe projet de développement de notre client et l'intégrateur, les objectifs sont les suivants : • Comprendre et analyser les modèles de calculs définis par les actuaires • Participer avec l'intégrateur aux phases de conception de la solution • Réaliser le développement en Spark Java, en utilisant des librairies géospatiales • Accompagner la montée en compétence des équipes sur la mise en œuvre de traitements en Spark / Java • Déployer les développements dans un environnement Google Cloud Platform • Créer la documentation et la communiquer aux équipes concernées • Anticiper les phases d'exploitation en relation avec les équipes du client • Rendre compte à son chef de projet Livrables • Solution applicative développée et testée • Mises à jour de la documentation • Mise à jour du suivi interne de l'équipe Compétences Fonctionnelles: IARD : notion Compétences Techniques: JAVA / SCALA / SPARK : Expert Oracle / ITIL : Avancé Agile : avancé

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

308 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous