Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 187 résultats.
Freelance

Mission freelance
Développeur KAFKA & Analyste Fonctionnel – Projets et Support Applicatif

Publiée le
Apache Kafka

3 ans
Île-de-France, France
Télétravail partiel
Contexte et périmètre : Le poste s’inscrit dans le suivi et le développement d’applications critiques pour la banque, couvrant des domaines tels que : Lutte Anti-Fraude et Sécurité Financière Conformité réglementaire Activités boursières Lutte contre le blanchiment d’argent et le financement du terrorisme Offres commerciales et gestion de la relation client Gestion des successions Le consultant participe à la fois à des missions de projets (développement et évolution d’applications) et de support applicatif (résolution d’incidents, suivi des applications).
Freelance

Mission freelance
Développeur Fullstack Java Spring / React

Publiée le
Apache Maven
Git
Hibernate

2 ans
Lille, Hauts-de-France
Télétravail partiel
Vous rejoindrez une équipe agile composée de 4 développeurs et pilotée par un Responsable d’Applications. L’environnement technique repose sur un écosystème applicatif sur mesure Java/Web , avec un périmètre fonctionnel centré sur la Fidélité Client au sein d’un ensemble plus large d’outils marketing. L’activité se répartit entre : Build : 70% (évolutions, optimisations, développements correctifs) Run : 30% (maintien opérationnel, traitement d’incidents) Le périmètre fonctionnel couvre : Connaissance client centralisée Programme de fidélité, avantages, coupons Base des tickets de caisse Gestion des réclamations clients Missions Conception & Développement Développer des fonctionnalités backend (Java, Spring Boot) et frontend (React). Concevoir et faire évoluer les applications liées au périmètre fidélité. Optimiser l’architecture et améliorer en continu la qualité du code. Analyser les besoins et proposer des solutions robustes et pérennes. Maintenance & Support Prendre en charge les incidents applicatifs et garantir la continuité de service. Collaboration & Documentation Participer pleinement aux cérémonies agiles. Documenter les choix techniques et les bonnes pratiques. Travailler en équipe tout en étant autonome.
Freelance
CDI

Offre d'emploi
Intégrateur technique niveau 2 et 3

Publiée le
Apache Kafka

18 mois
10k-50k €
100-500 €
Strasbourg, Grand Est
Télétravail partiel
CONTEXTE La prestation se situe dans la Direction de la Fabrication, au sein du département « Paiements, Services Digitaux et Retraits », dans l’équipe Services Digitaux émission. L’équipe Services Digitaux assure la maîtrise d’œuvre des domaines applicatifs suivants : • Services temps réel HomeBanking (Card Services) • Services temps réel Paiement Mobile (Digital Card) MISSIONS 1. Intégration de projets monétiques • Analyse des spécifications des partenaires (Banques, réseaux monétiques, éditeur SOPRA Banking…) • Contribution à la définition du release plan (planning et contenu des livraisons) • Réception et déploiement des nouvelles versions du progiciel et du paramétrage métier • Réalisation des tests d’intégration (non-régression et évolutions) • Réalisation de campagnes de tests de performance (si évolution majeure de la solution) • Assistance technique et fonctionnelles aux équipes d’homologation (banque) • Coordination des actions entre les différents acteurs : Maîtrise d’ouvrage, Direction Technique, Homologation, partenaires externes… 2. Suivi opérationnel des environnements • Monitoring et suivi quotidien de l’environnement en production • Gestion des incidents détectés par le client ou un de ses partenaires en production et homologation • Suivi et résolution des problèmes identifiés 3. Contribution à l’industrialisation de la solution et amélioration de nos outils/méthodes • Identification des axes d'améliorations (méthodologie, technique, organisationnelle, exploitation…) • Enrichissement documentation technique et modes opératoire internes • Réalisation de petites évolutions sur nos outils internes (HTML/JavaScript ou Java) 4. Contribution possible au développement d’une IHM (10% de l’activité de l’équipe seulement) • front-end HTML/Javascript (React) • back-end Java (Spring Boot) Précisions • Activité d’intégration quasi exclusivement : La très grande majorité des développements applicatifs sont réalisés par notre éditeur SOPRA Banking. Il est donc important de partager avec les consultants qu’il ne s’agit pas d’une mission de développement. • Environnement technique : Notre socle applicatif historique s’appuie sur une architecture J2E « classique » (serveurs d’application WebLogic + BDD Oracle) dont il est intéressant de maîtriser les grands principes. Mais les nouveaux projets sont développés par notre éditeur en Cloud Native. Des notions sur les technologies Cloud sont donc un vrai plus (cf. compétences techniques optionnelles ci-dessous) même si notre onboarding prévoit des présentations sur ces technologies cloud.
Freelance

Mission freelance
Administrateur / Expert Big Data (Cloudera)

Publiée le
Apache Spark
Cloudera
Hadoop

3 ans
500-700 €
Île-de-France, France
Télétravail partiel
Vous serez en charge du déploiement ainsi que du MCO/MCS de l’écosystème Cloudera (Cloudera Manager, services Cloudera Data Platform : HDFS, Vous interviendrez également sur la gestion d’une architecture Lake house , comprenant : Data Security : Apache Ranger Data gouvernance : Apache Atlas Data processing : Spark, Apache Zeppelin Data ingestion : NiFi Data analytics : Apache Impala Data lake : Hadoop, Apache Kudu Data serving : Hue Responsabilités Documenter les procédures d’exploitation et rédiger des rapports synthétiques Garantir le bon fonctionnement des services dans le respect des SLA Opérer en environnement de production en s’appuyant sur les processus ITIL (gestion des incidents, problèmes, changements) Communiquer en anglais avec les éditeurs (dont Cloudera) et les fournisseurs Automatiser les déploiements (fichiers de configuration, certificats, keystores) via Ansible Utiliser les outils DevOps (GitHub, Jenkins) pour le versionning et les pipelines Exploiter les environnements Linux et analyser les logs dans le cadre du traitement des incidents Être force de proposition concernant l’amélioration de l'exploitabilité, la robustesse et la supervision des services Participer aux réunions d’équipe, aux projets et aux différents comités, et assurer un reporting régulier Livrables attendus Dossier d’ingénierie de la plateforme Lake house Fiches et procédures d’exploitation Dossier de mise en production PV de mise en production
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandées Compétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
CDI
Freelance

Offre d'emploi
Ingénieur Intégration & Parsing des Journaux SOC

Publiée le
Apache Kafka
CI/CD
Cloud

1 an
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un Ingénieur Intégration & Parsing de Journaux pour rejoindre l’équipe Cybersécurité au sein du Centre des Opérations de Sécurité (SOC) . Rôle et responsabilités Le consultant sera responsable de la gestion complète du processus de collecte des journaux provenant des environnements cloud et on-premise , ainsi que des outils de sécurité soutenant les opérations SOC 24/7 . Rattaché au responsable de l’équipe Build, il travaillera en étroite collaboration avec les parties prenantes Cybersécurité, IT et Métiers pour garantir une intégration robuste, évolutive et sécurisée des journaux . Principales missions : Concevoir, mettre en œuvre et maintenir les pipelines de collecte et de parsing des journaux. Gérer et optimiser les systèmes d’ingestion et de transfert des logs via des outils tels que Fluentd ou Kafka . Développer des parsers avancés pour normaliser et structurer les données selon des schémas spécifiques. Mettre en place des parsers-as-code pour intégrer de grands volumes de données issues de sources personnalisées. Garantir la qualité, la fiabilité et la standardisation des journaux sur l’ensemble des systèmes intégrés. Collaborer avec les équipes réseau, les responsables applicatifs et les analystes SOC pour intégrer de nouvelles sources de logs. Maintenir les règles de parsing, de normalisation et d’enrichissement pour l’ingestion SIEM (Elastic SIEM ou équivalent). Diagnostiquer et résoudre les problèmes d’ingestion ou de parsing en coordination avec les équipes concernées. Mettre en place des pipelines CI/CD pour le déploiement automatisé des configurations d’intégration. Appliquer des pratiques DevSecOps pour sécuriser et automatiser les flux d’ingestion. Surveiller en continu les pipelines d’ingestion et contribuer à leur amélioration. Participer à la création de parsers à l’aide d’ IA agentique . Maintenir la documentation et les schémas techniques des workflows d’intégration. Livrables attendus Pipelines d’ingestion et de parsing opérationnels. Documentation technique et schémas d’architecture. Scripts et configurations CI/CD. Tableaux de bord de suivi et d’amélioration continue. Compétences et qualifications requisesTechniques Expérience avérée en tant qu’ Ingénieur Intégration de Journaux , Ingénieur Plateforme ou Ingénieur Cloud dans un contexte SOC ou cybersécurité. Maîtrise des outils de collecte et de traitement des logs ( Fluentd , Logstash , Kafka …). Bonne compréhension des techniques de parsing, normalisation et enrichissement (ASIM, UDM, OCSF, DSM, ECS, CIM, CEF, LEEF…). Solide connaissance des services AWS, GCP et Azure liés à la supervision et à la journalisation. Expérience avec les outils CI/CD (GitLab CI/CD, Jenkins…). Maîtrise de Ruby (développement de plugins Fluentd) et de Python/Bash . Familiarité avec les solutions SIEM (Google SecOps, Elastic SIEM, Sentinel, Splunk ou équivalent). Compréhension des concepts de cybersécurité , détection , et opérations SOC . Pratique des approches DevSecOps et de l’automatisation. Connaissance des formats de règles SIGMA et YARA .
Freelance

Mission freelance
Administrateur d'Applications - Plateforme Instant Payment (IP)

Publiée le
Apache Kafka
ITIL
Maintien en condition opérationnelle (MCO)

12 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Ingénieur de Production expérimenté pour intégrer la Direction des Opérations (DOP) de notre client, une institution clé dans le secteur des paiements électroniques. Vous serez au cœur de l'administration d'une plateforme stratégique dédiée à l' Instant Payment (IP) . Niveau de Complexité : 3 Compétence Clé : Très bonne maîtrise des Middlewares . 🎯 Vos Missions Principales En tant qu'Administrateur d'Applications, votre rôle sera double : garantir la performance et participer à l'évolution de la plateforme. 1. Maintenance et Exploitation (MCO) Assurer la Maintenance en Condition Opérationnelle (MCO) des services applicatifs, en respectant rigoureusement les bonnes pratiques ITIL . Gérer le suivi quotidien de l'exploitation et veiller au respect des niveaux de service . Assurer le support (N2/N3) aux incidents et problèmes applicatifs et métiers. Réaliser les opérations de maintenance courante et d'administration des applications. 2. Projets et Amélioration Continue Participer activement à la mise en œuvre de nouveaux projets stratégiques de l'institution. Mettre en production une nouvelle solution de Lutte Contre La Fraude (LCF) . Participer à la mise en place d'indicateurs de supervision et de suivi de la plateforme . Proposer et mettre en œuvre des actions d’amélioration (procédures, scripts) pour optimiser la qualité et la productivité (réalisation de scripts d’amélioration de la Production ). Assurer le support à l’équipe de pilotage/supervision. 📝 Livrables Attendus Dossiers et rapports de Recette d'Exploitation . Dossiers de préparation et rapports des Mises en Production (MEP) . Rédaction et mise à jour des Fiches et Procédures d'Exploitation . Documentation de supervision. Rapports de reporting réguliers. 🛠️ Votre Profil Technique Une solide expérience sur les environnements suivants est indispensable : Domaine / Technologies Requises Fonctionnel:Instant Payment (Connaissance impérative) Middleware / EAI: Très bonne maîtrise, WMQ , Kafka , CONFLUENT Base de Données : Cassandra Système & Scripting : Linux , Scripts (Shell, Python, etc.) Méthodologie : ITIL Autres atoutsSpark , Github, Cloud, Sécurité, Virtualisation Langue : Anglais technique (lecture de documentation et échanges)
Freelance
CDI

Offre d'emploi
DATA ENGINEER SPARK / SCALA / PYSPARK / DATABRICKS / AZURE

Publiée le
Apache Spark
Azure
Databricks

3 ans
36k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour 👽, Pour le compte de notre client, nous recherchons un data engineer Spark / Scala / Pyspark / Databricks / Azure. Missions principales : Participer au développement des User Stories (US) et réalisation des tests associés. Produire et maintenir la documentation projet : mapping des données, modélisation des pipelines, documents d’exploitation. Mettre en place et maintenir le CI/CD sur l’usine logicielle. Assurer la mise en place du monitoring . Collaborer étroitement avec l’équipe projet ; pas de responsabilité de production individuelle. Travailler dans un environnement agile avec priorisation et gestion multi-projets. Compétences techniques indispensables : Maîtrise de Scala et Spark (batch principalement). Optimisation des jobs Spark et traitement de volumétries importantes / complexes . Bonnes pratiques de développement Scala et build Maven. Expérience en environnement cloud , idéalement Azure . Compétences techniques appréciées : Écosystème Databricks Azure Functions et Azure Data Factory Monitoring sous Datadog Déploiement avec Ansible Compétences transverses : Aisance relationnelle et esprit d’équipe Autonomie, rigueur et esprit d’analyse Capacité de synthèse et force de proposition Sens des priorités et respect des délais Appétence client et compréhension métier / fonctionnelle Mentoring et partage de connaissances
Freelance
CDI

Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN

Publiée le
Apache Hive
Apache Spark
Big Data

12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
CDI
Freelance

Offre d'emploi
Développeur SPARK/ SCALA

Publiée le
Apache Kafka
Apache Maven
Apache Spark

3 ans
40k-45k €
400-550 €
Paris, France
Télétravail partiel
Contexte du poste: Dans le cadre du développement de sa plateforme Data & Analytics, l'entreprise recherche un Développeur Spark/Scala expérimenté pour rejoindre une équipe agile en pleine croissance. Vous interviendrez sur des projets stratégiques de traitement de données massives et d’industrialisation de pipelines analytiques dans un environnement Cloud et DevOps. Missions principales: Conception et développement de pipelines Big Data avec Spark & Scala Traitement de données batch et temps réel Optimisation de performances et tuning Spark Implémentation de scripts d’industrialisation et automatisation via CI/CD Participation aux cérémonies Agile et collaboration avec les Data Engineers et Architectes Contribution à la mise en production et au MCO des solutions développées Environnement technique: Langages & Frameworks Scala & Spark (obligatoire) Python (confirmé) Java (optionnel, un plus) CI/CD & Automatisation Jenkins (maîtrise impérative) XLR / XLD (XL Release & XL Deploy) Git, Maven Data & Cloud (bonus) Kafka, Hadoop, HDFS Cloud GCP ou Azure (apprécié)
Freelance

Mission freelance
Business analyst IT - Paiement & Services

Publiée le
Apache Kafka
Oracle
PostgreSQL

3 ans
Île-de-France, France
Télétravail partiel
Evolution au sein de l'équipe Paiement & Services qui a comme périmètre des applications concernant par exemple : la monétique (Cycle de vie des CB, Kit de contestation d'opération, ...), les virements instantanés et Hors Zone SEPA, la mobilité bancaire, le service "Verification of Payee" ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ----------
Freelance

Mission freelance
Project Manager - Encaissement

Publiée le
Apache Kafka
Boomi
GoAnywhere MFT

3 ans
470-600 €
Châtillon, Île-de-France
Télétravail partiel
Le Project Manager est chargé de piloter le chantier d’intégration de la solution cible au sein du SI, en s’appuyant sur des interfaces temps réel ou différées et sur des patterns d’échange définis, qu’il doit challenger ou valider. Il coordonne l’ensemble des travaux avec le responsable du chantier API et interfaces, ainsi qu’avec les responsables des applications et des chantiers en adhérence. Il assure un reporting régulier sur l’avancement et prend en charge le suivi budgétaire des opérations placées sous sa responsabilité.
Freelance
CDI

Offre d'emploi
Lead Data Engineer / Data Engineer senior H/F

Publiée le
Ansible
Apache Airflow
Apache Kafka

6 mois
65k-80k €
650-760 €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons pour le compte de notre client un Lead Data Engineer / Data Engineer Senior H/F pour une mission en freelance ou portage salarial de 6 mois renouvelable à pourvoir dès que possible dans le département 92 (Ile-de-France). Un début de mission en janvier 2026 peut-être envisageable. Notre client propose 2 jours de télétravail maximum par semaine. Responsabilités principales : Mise en place de standards de développement et bonnes pratiques Expertise en performance, fiabilité et scalabilité Participation à la communauté des Tech Leads avec les différentes Lines of Business de notre client Développement de flux d’ingestion
Freelance

Mission freelance
Développeur C++ / Qt BANQUE F/H

Publiée le
Apache Kafka
C/C++
Linux

12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Contexte du projet Les projets OPTIQ et Resilience visent à développer de nouvelles fonctionnalités et à améliorer des fonctionnalités existantes liées aux applications OPTIQ (plateforme de trading Euronext) et Resilience (interface utilisateur d’OPTIQ). Euronext est la principale infrastructure de marché de capitaux en Europe, couvrant l’ensemble de la chaîne de valeur : cotation, négociation, compensation, règlement-livraison et conservation, ainsi que des solutions pour les émetteurs et les investisseurs. Équipe & environnement L’équipe Trading Systems est répartie entre Paris et Porto . À Paris, elle compte environ 30 personnes (développeurs, QA, managers) et est responsable de plusieurs applications critiques de trading, notamment OPTIQ® et Resilience . 🎯 Description des prestations & livrablesDéveloppement & code Développement de code robuste, performant et testable Utilisation des technologies suivantes : C++ (14 / 17 / 20) Qt 6.8 / QML Python Environnements Linux RedHat / Windows Bases de données MySQL Intégration avec Kafka Écriture de requêtes SQL performantes et analyse de requêtes complexes Respect des standards de développement et de la couverture de tests unitaires Participation aux revues de code et aux merge requests Documentation Rédaction de documents de solution à partir des spécifications fournies par les business analysts Maintien d’une documentation technique à jour pour les développements réalisés Amélioration continue Contribution active à l’amélioration continue des processus et pratiques de développement CI/CD Création et maintenance des pipelines CI/CD Utilisation de Jenkins et Ansible
Freelance

Mission freelance
[SCH] Data Engineer Spark / Scala - 1047

Publiée le

10 mois
350-390 €
Paris, France
Télétravail partiel
Au sein de la DSI Finance, vous interviendrez en tant que Data Engineer Spark / Scala confirmé sur le projet d’intégration du Datalake Finance, adossé à la distribution Hadoop HortonWorks. Ce datalake centralise les données issues des systèmes comptables et de synthèse afin de répondre aux besoins de reporting Finances & Risques (COREP, RWA, IFRS9, etc.). Missions principales : -Participer au développement et à l’intégration de nouvelles sources de données au sein du Datalake Finance. -Assembler et distribuer les données aux consommateurs métiers tout en garantissant la pérennité et la performance des pipelines existants. -Contribuer à la conception technique, l’implémentation et les tests des flux sous Spark / Scala. -Veiller à la non-régression et à la qualité du code dans le cadre des évolutions du socle. -Travailler en méthodologie Agile (Scrum / Kanban) avec les équipes métiers, data et maintenance. -Participer à la documentation technique et aux revues de code. Profil recherché : -5 à 6 ans d’expérience en environnement Big Data / Datalake. -Solide maîtrise de Spark / Scala et des paradigmes de programmation fonctionnelle (ZIO, Monix, Cats appréciés). -Connaissance des écosystèmes Hadoop, Hive, Kafka, HBase, Kerberos. -Expérience dans un cadre Agile (Scrum / Kanban) et outils associés (Jira, Confluence). -Esprit analytique, autonomie, rigueur et bon relationnel.
Freelance
CDI

Offre d'emploi
QA Cypress/Cucumber/MongoDB/Kafka (H/F)

Publiée le
Apache Kafka
Cucumber
Cypress

1 an
32k-35k €
310-360 €
Lille, Hauts-de-France
Télétravail partiel
📍 Lieu : Lille Langue : Anglais professionnel - Impératif Compétences techniques cypress - Confirmé - Impératif cucumber - Confirmé - Impératif kafka - Confirmé - Important MongoDB - Confirmé - Important Dans le cadre de cette mission, les principales tâches attendues sont les suivantes : - rédaction et exécution des cas de test manuels - création des plans de test pour chaque campagne - rédaction du rapport de synthèse des tests réalisés pour chaque sprint - analyse, animation et suivi des anomalies remontées par l'équipe et les key-users - manipuler des données en BDD afin de constituer les jeux de données nécessaires à l'exécution des campagnes (MongoDB) et utilisation des interfaces (Bruno / Kafka) - participation à l'automatisation des tests sur les composants (Gherkin, Cucumber, Cypress, Playwright) Les livrables Référentiel cas de tests manuels Référentiels cas de tests automatisés Exécution de campagne de tests

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

187 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous