Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 185 résultats.
Freelance
CDI

Offre d'emploi
Developpeur Java Angular / Spring Senior

Publiée le
Angular
Apache
API

1 an
54k-60k €
470-530 €
Montrouge, Île-de-France
Télétravail partiel
En tant que Senior FullStack developer, participer au développement de la refonte d'une application. Vos missions seront : Maîtrise du développement frontend avec Angular (TypeScript, composants, services, gestion des formulaires, etc.) Expérience dans la création d’interfaces utilisateur (ex : Angular Material) Solide expérience en développement backend avec Java et Spring Boot (création d’API REST, gestion des dépendances, etc.) Connaissance des principes d’architecture RESTful et des échanges de données via HTTP (JSON, multipart/form-data) Maîtrise de la gestion des fichiers en Java, notamment le traitement et le parsing de fichiers Excel (Apache POI ou équivalent) Compétences en modélisation de base de données relationnelle (PostgreSQL, MySQL, etc.) Maîtrise de Spring Data JPA pour l’accès et la manipulation des données en base Expérience dans la conception et la consommation d’API (côté frontend et backend) Connaissance des bonnes pratiques de sécurité (gestion des droits, validation des données, protection des endpoints) Capacité à écrire des tests unitaires et d’intégration (JUnit, Jasmine/Karma pour Angular) Utilisation de systèmes de gestion de version (Git) Bonne compréhension du cycle de vie d’une application web (déploiement, maintenance, évolutions) Capacité à documenter le code et les API (Swagger/OpenAPI, commentaires, README)
CDI

Offre d'emploi
Data Engineer H/F

Publiée le
Big Data
Data Lake
Spark Streaming

Île-de-France, France
Télétravail partiel
Le Data Engineer est un développeur au sein de l’équipe Engineering Open Big Data du Département Data, qui regroupe l’ensemble des expertises technologiques liées à l’ingénierie de la donnée, de l’automatisation et à l’exploitation des modèles de Machine Learning. Ce déparetement est dédié au service de notre client et de ses équipes (Data office, Tribus data, Business, Transformation Office etc.), afin de fournir, en collaboration avec le Data Office, les plateformes (RPA, BI, Data, …) et les données nécessaires aux équipes chargées de délivrer les cas d’usages, puis les déployer et les maintenir en conditions opérationnelles.
Freelance

Mission freelance
Ingénieur Dev’Op’s Domaine applicatif H/F

Publiée le
Apache
Apache Tomcat
Azure

6 mois
Guyancourt, Île-de-France
Télétravail partiel
Notre client Grand Compte situé à Guyancourt, recherche un Ingénieur Dev’Op’s Domaine applicatif. Le démarrage est prévu le 15/12/2025. Contexte : Dans un contexte de transformation digitale des applicatifs front-office à destination des chantiers. Au sein de la direction des Opérations Monde. Sur un domaine applicatif exigeant : Maintien en conditions opérationnelles et projet. Des infra très hétérogènes : On’Prem, Azure, Saas. De nombreux axes d’améliorations à identifier et à travailler. Le tout au sein d’une équipe très soudée. Les missions principales : Accompagner les projets du domaine Production >> Projets de déploiement de nouveaux applicatifs Cloud AZURE Préparer/ Optimiser l’exploitabilité des produits Garantir la qualité, la valeur et la performance des services applicatifs du périmètre Accompagner les domaines dans la gestion de leur portefeuille applicatif. Activités principales : Participation à la construction et au design du produit : • Être force de proposition pour faire évoluer / optimiser le produit en mettant en avant l'intérêt pour l'utilisateur. • Contribuer aux DAT et aux SAT • Anticiper et définir les conditions d’exploitabilité (sécurité/Interopérabilité/data) du produit dès la phase projet Garantir l’exploitabilité du produit : • Identifier et coordonner les bons interlocuteurs pour traiter les incidents et les changes, s’assurer qu’ils ont le bon niveau de compétences et accès aux outils nécessaires. • Définir les étapes et anticiper les risques des déploiements • Définir ou challenger les plans de tests : contribuer aux cahiers de tests, réaliser certains tests • Préparer, dupliquer et déployer les environnements • Piloter la rédaction et valider l’ensemble des procédures d’exploitation Suivi de la performance des services : • Superviser la bonne santé des applications « globales » avec les équipes régionales de supervision. • Garantir les engagements de service sur l’ensemble des services appli pour les incidents, les demandes de changements et demandes de services. • Piloter la réalisation des analyses à froid des incidents (amélioration continue). Développer l’industrialisation à chaque étape de la vie du produit : • Identifier les axes d’améliorations sur le périmètre : automatisation, transferts d’activités etc... • Automatiser / sécuriser les déploiements • Implémenter les règles de détection d’incidents (observabilité).
Freelance
CDI

Offre d'emploi
skiils | DevOps Senior Kubernetes/Kafka

Publiée le
Apache Kafka
Kubernetes

1 an
10k-38k €
100-310 €
Maroc
Télétravail 100%
La Plateforme Data met en œuvre une architecture « Data Centric », point de référence de la data dans le SI pour casser les silos d’information de l’entreprise. Elle fournit ces données par API à l’ensemble de l’écosystème pour généraliser leur traitement et leur consultation en temps réel et permet de simplifier et accélérer les traitements analytiques de nos données pour faire converger l’opérationnel et le décisionnel. Intégré(e) dans les équipes Plateforme Data le/la consultant(e) aura pour mission de participer à la mise en place et à l'amélioration continue des pipelines de données en utilisant des technologies DevOps telles que Kafka, Kubernetes et GCP. Il/elle sera en charge de l'automatisation des déploiements, de la surveillance des performances et de la gestion des incidents. Le/la consultant(e) travaillera en étroite collaboration avec les équipes de développement et d'infrastructure pour garantir la fiabilité et la scalabilité des plateformes de données. - Maîtriser les technologies GCP (Google Cloud Platform) telles que Google Kubernetes Engine (GKE), Cloud Storage, Cloud SQL et Cloud Monitoring. - Posséder une expertise approfondie de Kafka, y compris sa configuration, sa gestion et son optimisation. - Avoir une solide expérience avec Kubernetes, notamment la création et la gestion de clusters, le déploiement d'applications et la supervision des performances. - Être à l'aise avec les concepts DevOps, tels que l'intégration continue (CI) et la livraison continue (CD), et les outils associés. - Connaissance des bonnes pratiques de sécurité et de la mise en place de politiques d'accès. - Compréhension des concepts de base des bases de données relationnelles. - Maîtrise des scripts de scripting (bash, Python, etc.). - Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. - Capacité à travailler de manière autonome et à gérer son temps efficacement. - Excellente communication écrite et orale : Aptitude à produire des livrables et des reportings de haute qualité. -- Esprit d'équipe : Capacité à collaborer efficacement avec les membres de l'équipe pour atteindre des objectifs communs. -Maîtrise des concepts d’Agilité (Scrum, Sprint Planning, Backlog…).
Freelance
CDI

Offre d'emploi
Développeur java - produits Biométriques

Publiée le
Apache Maven
Docker
Java

3 ans
46k-57k €
400-500 €
Osny, Île-de-France
Télétravail partiel
La mission consistera à intervenir au niveau de la conception, du développement, des documentations des différents produits : Participer aux travaux de conception des features Participer à la définition et la mise en œuvre des tests unitaires automatisés Effectuer les travaux de développement conformément aux besoins exprimés, en suivant les bonnes pratiques en termes de développement sécurisé Participer à la rédaction de la documentation technique Participer à la déclaration et à la correction des anomalies Participer aux revues de code Les nouveaux développements devront obligatoirement être accompagnés des tests unitaires et des documents de conception associés. Si le prestataire juge tout ou partie de ces éléments inutiles, il devra en faire part au responsable de développements, afin de valider le fait qu'il soit pertinent de déroger, ou pas. Les debugs et nouveaux développements seront identifiés par des issues Jira (improvements, bugs) Les tickets devront être complétés conformément aux bonnes pratiques JIRA. Le poste nécessite une habilitation de sécurité française en conformité avec les exigences de l’organisme public/du secteur concerné. Une enquête administrative pourra être menée dans le cadre du processus d’habilitation.
Freelance

Mission freelance
229276/Lead dev python / spark à Paris

Publiée le
Python

3 mois
400-440 €
Paris, France
Télétravail partiel
Lead dev python / spark à Paris Profil senior, capable par exemple d’intervenir quand une plateforme swape, d’organiser et de structurer des upgrades de versions (ex : spark 3 vers spark 4) Besoin d'une expertise en développement python / spark Intervention au sein d'une petite équipe sur une plateforme d’hypervision de services. Il s'agit d'un projet data novateur Localisation Paris IM 2 jours de TT par semaine Goals and deliverables Apporter une expertise en développement python + spark / pyspark Développer personnellement Intervenir sur des opérations exceptionnelles : Profil senior, capable par exemple d’intervenir quand une plateforme swape, d’organiser et de structurer des upgrades de versions (ex : spark 3 vers spark 4) Etre source de conseil Expected skills PYSPARK Confirmed POSTGRESQL Advanced LINUX Confirmed GIT Confirmed Programmation Python Expert ANGULAR Advanced Spark Streaming Expert
Freelance
CDI
CDD

Offre d'emploi
Chef de projet - Déploiement Télécom

Publiée le
Ansible
Apache Airflow
Apache Spark

1 an
54k €
500 €
La Défense, Île-de-France
Télétravail partiel
Dans le cadre du renforcement de la capacité de support sur la nouvelle offre DATAHUB , l’ingénieur support Data aura pour mission d’assurer le maintien en condition opérationnelle, le support de niveau 2 et l’optimisation des plateformes Apache Spark , Apache Airflow / Astronomer et Starburst (Trino) , déployées sur Kubernetes (IKS) et prochainement sur OpenShift . Le poste consiste à intervenir sur les incidents de production, analyser les causes racines, contribuer à l’optimisation des traitements et accompagner les équipes métiers dans l’utilisation efficace et sécurisée des plateformes. L’ingénieur participera également à la documentation technique, à la mise en œuvre des bonnes pratiques d’exploitation et à l’amélioration continue de l’écosystème DataHub. Il travaillera en étroite collaboration avec les équipes Data, Infrastructure et Sécurité afin de garantir la performance, la fiabilité et la scalabilité des environnements de production.
Freelance
CDD
CDI

Offre d'emploi
Consultant Data Databricks (F/H)

Publiée le
Apache Spark
Databricks
DevOps

3 ans
60k-75k €
550-610 €
Paris, France
Télétravail partiel
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
Freelance

Mission freelance
Data Engineer Senior Secteur Media

Publiée le
Apache Airflow
Apache Spark
BigQuery

6 mois
520-640 €
Île-de-France, France
Télétravail partiel
Contexte et détails de la mission Définition du besoin La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestations attendues : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances de data engineering • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Modalités de la prestation : Présence sur site requise en fonction des besoins de la prestation et a minima équivalente à 50% du temps de la prestation. Astreintes week-end et jours fériés : Non Matériel performant à fournir par le prestataire : Pour ce faire, les postes informatiques utilisés par le prestataire lors des prestations doivent avoir : - Un antivirus à jour et activé - Un mécanisme de chiffrement du disque activé - Un système d'exploitation à jour de ses correctifs de sécurité - Un mécanisme de verrouillage du poste activé - Un moyen de stockage sécurisé des mots de passe. Usage de la langue française : L'exécution de chaque marché spécifique nécessite l'usage principal et permanent de la langue française dans les rapports avec les parties prenantes (documents, réunions, appels téléphoniques, courriers électroniques…). Les personnes en charge de l‘exécution des prestations doivent maîtriser parfaitement le français (et toute autre langue qui serait précisée après information dans le DCE du marché spécifique concerné) dans le contexte et environnement.
Freelance

Mission freelance
Tech Lead Java/Kafka (H/F)

Publiée le
Apache Kafka
Entreprise Java Bean (EJB)
Mongodb

2 ans
100-500 €
Lille, Hauts-de-France
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Tech Lead Java/Kafka (H/F) à Lille, France. Les missions attendues par le Tech Lead Java/Kafka (H/F) : Assurer le lead technique de l’équipe (pilotage, accompagnement, bonnes pratiques). Concevoir et faire évoluer l’architecture des solutions en lien avec les architectes. Garantir la qualité, la sécurité et la performance de l’application. Contribuer à l’industrialisation et à la fiabilisation. Assurer une transition fluide avec le Tech Lead actuel (biseau jusqu’à fin 2025, prise de poste complète début 2026). Environnement technique: Java 17 – Spring Boot – Kafka – MongoDB – Vue.js Livrables clés: Backlog technique priorisé et plans de livraison Dossiers d’architecture technique Documentation technique à jour et guidelines d’équipe Reporting qualité et performance Profil recherché: Expérience confirmée en Tech Lead ou Lead Developer sur architectures distribuées Excellente maîtrise de Java/Spring Boot et Kafka Bon niveau en architecture, sécurité, performance Leadership, communication et sens du collectif
Freelance

Mission freelance
Tech lead fullstack java angular kafka

Publiée le
Angular
Apache Kafka
API REST

1 an
520-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Tech Lead Java JEE confirmé pour rejoindre une équipe en charge du développement et de la maintenance d’applications critiques liées à la gestion et la facturation au sein d’un système d’information à forte exposition métier. Au cœur d’une équipe Agile, vous jouerez un rôle clé pour garantir la qualité des livrables, assurer l’alignement technique avec les standards du SI, promouvoir les bonnes pratiques DevSecOps et accompagner l’évolution technique du produit. Vous serez le référent technique de l’équipe et le point d’entrée sur les enjeux d’architecture, de sécurité et d’excellence opérationnelle. Vous interviendrez sur des projets de transformation structurants, en collaboration avec un Product Owner, un Scrum Master et plusieurs équipes du train SAFe. Missions principales Assurer le rôle de leader technique et guider l’équipe sur les choix d'architecture et de développement Garantir la bonne mise en œuvre des exigences SI et des pratiques DevSecOps Assurer une veille et la prise en charge des sujets de sécurité (gestion des vulnérabilités, CVE…) Participer aux revues techniques, à l’estimation des User Stories et à l’amélioration continue Développer, corriger et optimiser les applications existantes Mettre en œuvre les pipelines d'intégration et de déploiement continus Automatiser les tests et garantir la qualité logicielle (TU, tests E2E) Participer activement aux cérémonies Agile (Scrum/SAFe) Contribuer à la communauté Tech Lead interne Utiliser et encourager l’usage d’outils d’IA générative dans la chaîne de développement
Freelance

Mission freelance
Architecte Middleware

Publiée le
Apache Kafka
API
Architecture

3 ans
400-600 €
Toulouse, Occitanie
Télétravail partiel
L’architecte middleware intervient au sein d’une organisation dotée d’un système d’information complexe et en évolution. Il définit l’architecture des échanges inter-applicatifs, conçoit les standards d’intégration et garantit la cohérence technique des différentes plateformes d’échange. Il accompagne les équipes projets dans la mise en œuvre de nouveaux flux, analyse les besoins, sécurise les interactions et veille à la performance comme à la résilience des solutions mises en place. En lien avec les équipes opérationnelles, il contribue à la modernisation progressive de l’environnement d’intégration, participe à l’amélioration continue des pratiques et s’assure du respect des exigences de qualité, de sécurité et de conformité.
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Freelance

Mission freelance
[SCH] Lead Dev Python / Spark – Paris - 1021

Publiée le

6 mois
1-454 €
Paris, France
Télétravail partiel
Contexte : Au sein d’une petite équipe en charge d’une plateforme d’hypervision de services (projet data novateur), vous apportez une expertise Python / Spark. Rôle mêlant développement personnel, conseil et interventions ponctuelles à fort enjeu. Missions : -Développer et faire évoluer des traitements Python / PySpark (batch & streaming) au sein de la plateforme. -Être force de conseil sur les choix techniques (performance, coût, maintenabilité). -Intervenir sur opérations exceptionnelles : gestion d’incidents majeurs (ex. swap mémoire, saturation), planification & conduite d’upgrades (ex. Spark 3 → Spark 4). -Accompagner les bonnes pratiques : tests, revues de code, Git, CI/CD et qualité. -Collaborer avec l’équipe (Data/Produit) et contribuer à la documentation. Objectifs & livrables : -Apporter une expertise Python + Spark / PySpark opérationnelle. -Livrables de dev (features, fixes), guides techniques (upgrade, tuning, exploitation) et recommandations. Profil recherché : - >8 ans d’expérience en développement backend/data, dont ≥3 ans sur Python & Spark en environnement de prod. -Solide pratique PySpark. -Expérience PostgreSQL. -À l’aise Linux.
Freelance
CDD

Offre d'emploi
Développeur Java / Kafka H/F

Publiée le
Apache Kafka
Docker
Google Cloud Platform (GCP)

12 mois
40k-50k €
400-500 €
Île-de-France, France
Les missions s’articulent autour des axes suivants : · Participer aux phases de Discovery ; · Prendre part dans les analyses techniques et les études d’impacts en amont des développements ; · Concevoir des solutions en respectant et en promouvant les bonnes pratiques de développements ; · Fournir des estimations concernant les futures réalisations (dans le cadre de la méthode SCRUM) · Réaliser les développements en suivant les bonnes pratiques de développement. · Effectuer des contrôles croisés afin d’assurer la qualité des développements réalisés par l’équipe ; · Assurer le support de niveau 2 aux équipes d’homologation lors des phases de recette ; · Assurer le support lors des mises en production de chacune des évolutions ; · Assurer le maintien en condition opérationnelle des applications du périmètre. · Participer aux activités du Chapter Back End (développement de librairies transverses, partage de connaissances, développement de poc avec impact sur la squad et le Chapter)
Freelance

Mission freelance
Administrateur de plateforme Big Data

Publiée le
Apache Kafka
Elasticsearch
HDFS (Hadoop Distributed File System)

3 ans
Paris, France
Télétravail partiel
Vous interviendrez pour un grand acteur du secteur de l’énergie, au sein d’une prestation pluridisciplinaire. Votre rôle sera de gérer, maintenir et optimiser les plateformes Big Data afin d’assurer leur performance et disponibilité. Vous travaillerez en étroite collaboration avec les équipes de développement et les analystes de données. 4. Missions principales Gérer et maintenir les plateformes de données massives. Optimiser les performances des systèmes Big Data. Assurer la qualité et la sécurité des données. Collaborer avec les équipes de développement pour intégrer les solutions de données. Surveiller et maintenir les systèmes en production. Analyser les besoins en données et proposer des solutions adaptées.

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

185 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous