Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 309 résultats.
Freelance
CDI
CDD

Offre d'emploi
Data Engineer (DBT / Snowflake / Airflow / Python)

bdevit
Publiée le
Apache Airflow
AWS Cloud
CI/CD

36 mois
40k-50k €
450-500 €
Issy-les-Moulineaux, Île-de-France
Contexte : Dans un environnement data à forts enjeux de performance, de fiabilité et de conformité, vous intégrerez une équipe data encadrée par un Tech Lead Data. Vous interviendrez sur la conception, l’industrialisation et l’exploitation de pipelines de données au sein d’une plateforme cloud moderne. Missions Principales : En tant que Data Engineer , vous serez en charge de : Concevoir et développer des pipelines de données robustes et scalables (ELT) ; Intégrer les données issues de sources multiples dans Snowflake ; Développer et maintenir les modèles de données analytiques avec DBT (datamarts métiers, tests, documentation) ; Orchestrer les traitements data via Apache Airflow (DAGs, scheduling, dépendances) ; Optimiser les performances, la qualité et les coûts du Data Warehouse ; Industrialiser les flux data (automatisation, CI/CD, monitoring, reprise sur incident) ; Participer à l’amélioration continue de la plateforme data et être force de proposition sur les choix techniques.
Freelance
CDI

Offre d'emploi
Ingénieur de production (H/F)

CITECH
Publiée le
Apache Tomcat
Dynatrace
Java

12 mois
40k-55k €
270-430 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
CITECH recrute ! 👌 ✨ Vous souhaitez mettre votre expertise au service de projets d’envergure ? Nous avons LA mission qu’il vous faut ! Nous recherchons en effet un(e) Ingénieur de production (H/F) . Votre mission est pour un client reconnu dans le secteur des technologies et de l’information. Sa vocation première consiste à être l’ADN technologique d’une activité du droit par la mutualisation des moyens et des outils numériques. 🚀 Vous aurez pour rôle de déployer, maintenir et sécuriser les applications dans un environnement critique. 🙌🔽 Vos missions principales : 🔽🙌 🔸 Déployer les applications en préproduction et en production dans un environnement hautement sécurisé. 🔸 Garantir la disponibilité et la continuité de service des applications métiers notariaux. 🔸 Prendre en charge les incidents de niveau 2, et assurer le support et la montée en compétences du niveau 1 (prestataire externe). 🔸 Assurer la documentation technique dans une logique d’amélioration continue et de conformité (SMSI, audits, procédures). 🔸 Participer progressivement aux cérémonies de gestion de clés cryptographiques, en suivant des procédures normées. 🔸 Contribuer à l’optimisation et à la supervision applicative (notamment via Splunk et Dynatrace).
CDI
Freelance

Offre d'emploi
Développeur Kafka

CAT-AMANIA
Publiée le
Apache Kafka

6 mois
40k-70k €
420-550 €
Levallois-Perret, Île-de-France
Notre Plateforme Kafka est un socle stratégique regroupant un ensemble de services et de composants applicatifs centralisés, conçu pour tous nos pays partenaires. Elle joue un rôle clé en permettant aux applications métiers d’utiliser les différents compostons de Kafka pour Produire et consumer des évènements. La prestation peut-être basée à Levallois ou Mérignac. Mission principales dans le cadre de la prestation : Onboarding & Accompagnement des équipes - Valider les topics, ACLs et schémas Avro ( compatibilité) . - Assurer l’onboarding des équipes et les former aux bonnes pratiques Kafka. Support & Troubleshooting - Analyser et résoudre les incidents sur Kafka ( Kafka producer , Kafka consumer, Kafka Connect, Schema Registry….) - Diagnostiquer les problèmes de latence, offset, débit et consommation. - Identifier les route cause et proposer des optimisations. Développement & Intégration de Connecteurs Kafka Connect - Concevoir et tester de nouveaux connecteurs adaptés aux besoins métiers. - Réaliser des tests de performance et assurer la validation avant mise en production. - Documenter et mettre à disposition les connecteurs sur la plateforme Kafka. Monitoring & Observabilité - Mettre en place des dashboards Kibana pour surveiller Kafka et ses composants. - Installer et configurer des agents de monitoring pour prévenir les incidents. - Définir des alertes automatisées pour garantir la résilience de la plateforme. Automatisation & Industrialisation - Automatiser la gestion de Kafka via CI/CD et Infrastructure (Git, Terraform, Ansible). - Structurer et documenter les process pour assurer une gouvernance efficace. Profil & Compétences recherchées : - Expertise technique sur Apache Kafka (administration, technique, troubleshooting). - Schéma Avro & Schema Registry : validation, compatibilité et évolution. - Monitoring & Logging : Kibana, Logstash, Filebeat, Grafana , Dynatrace. - CI/CD & Automatisation : Git, Jenkins, Terraform, Ansible. - Esprit analytique et capacité à résoudre des problèmes complexes. - Excellentes compétences en communication pour accompagner les équipes. - Approche DevOps et automatisation des processus. - Bonne compréhension des architectures de données (API, flux, BDD, etc.) - Anglais courant
CDI

Offre d'emploi
Développeur Fullstack (H/F)

Swood Partners
Publiée le
Angular
Apache Kafka
Java

Paris, France
Embarque dans l'aventure SWOOD Partners ! 🌟 Nous sommes à la recherche d'un(e) Développeur(se) fullstack Java, prêt(e) à fusionner expertise technique, créativité et esprit d'équipe pour concevoir des solutions innovantes et impactantes. Si le développement Java te passionne, que tu apprécies les défis, travailler avec des équipes dynamiques et que tu souhaites vraiment faire la différence, la communauté tech de SWOOD n'attend que toi ! 🚀 Concrètement, tu seras amené à : Coconstruire l'offre Web Java : Contribuer activement à l'élaboration et à l’amélioration de l'offre de la practice Web sur la techno Java. Définir de solutions techniques : Analyser les besoins métiers, proposer et mettre en œuvre des solutions techniques détaillées. Accompagner et former des développeurs : Guider et accompagner des développeurs pour optimiser les performances et la sécurité des solutions. Proposer un code de qualité : Produire du code respectant les bonnes pratiques, conventions et standards de développement, ainsi que les tests associés. Pourquoi nous rejoindre ? 🤩 ✨ Accès à la propriété : chaque Swoodies peut acheter des actions chez SWOOD ! Faire partie et évoluer dans la Communauté Product Design , pour apprendre et partager avec d’autres experts. Un accompagnement au top : un suivi RH, un suivi BM et un suivi PL (un expert design ou produit) pour construire un plan d’évolution personnalisé. ⚡ On valorise ton impact , pas juste ta rentabilité. Des moments de partage , de fun et de best practices avec tous les Swoodies ! ➕ Et plus encore… Prêt(e) à transformer l'avenir avec nous ? 💡 Alors capitalise sur ton talent ! Et prends part (au sens propre comme au figuré 😏) au développement de SWOOD Partners !
CDI
Freelance

Offre d'emploi
Chef de Projet Talend ESB/NiFi/Cloud

OBJECTWARE
Publiée le
Apache NiFi
Cloud
Enterprise Service Bus (ESB)

3 ans
40k-75k €
400-580 €
Île-de-France, France
Prestation – Chef de projet migration Talend-ESB Missions : 1- Migration de la plateforme ESB actuelle vers notre cloud privé DMZR :  Gestion du projet : Préparation des supports des comités IT, animation des ateliers avec les équipes de production et les IT métiers pour la définition des environnements cibles, suivis de la mise en oeuvre  Coordination des IT métiers : Tests de recettes et de non-régression 2- Migration des flux actuels Talend et ESB vers Nifi principalement :  Gestion du projet : Préparation des supports des comités IT, Spécifications fonctionnelles, définition des solutions cibles avec les équipes transverses (Architecture, production, sécurité…), la TMA Nifi et les IT métiers, suivis de la mise en oeuvre  Coordination des IT métiers : Tests de recettes et de non-régression Profil recherché: De formation Ingénieur ou équivalent, la séniorité attendue pour l’intervenant dans l’environnement de la prestation est de 8 années. Cette mission nécessite un Anglais courant ainsi qu’une maitrise des concepts du cloud et des flux. La connaissance et maitrise des sujets datas (datamart, data ingénieur) est un plus. Competences requises - Mandatory:  Maîtrise d’un outil d’ETL (Tibco, Talend…) (4/4)  Maîtrise des concepts Cloud (PaaS, Service managé, COS…) (4/4)  Maîtrise de la Méthode Agile (3/4) Compétences requises - Nice to have :  Expériences/Connaissances Datas (datamart, data ingénieur) (3/4)  Expériences/Connaissances du domaine de l’immobilier et/ou connaissance des métiers de l’immobilier (2/4)  Anglais Niveau C1 (2/4)
CDI
Freelance

Offre d'emploi
Administrateur Kafka/Cloud

OBJECTWARE
Publiée le
Apache Kafka
Apigee
Cloud

3 ans
40k-77k €
400-580 €
Île-de-France, France
Le but du projet serait d'accompagner l'ensemble des abonnées (subscribers) de la plateforme actuelle (basée sur une offre OnPremise Kafka Confluent) pour une bascule vers une offre managé full Cloud . Nous souhaitions être accompagner par une prestation dont le rôle serait d’élaborer le plan et réaliser la migration autour des périmètre ApacheKafka Event Stream , IBM Cloud (IKS). Mission Principale : - Pilotage de l'activité auprès des providers de services (Offre Kafka , Offre KafkaConnect sous Cloud) : - Appropriation de l'offre, remontée de besoins spécifiques, réalisation des POC, troubleshooting, reporting sur l'avancement de la migration . - Setup Infrastructure Offre Cloud Kafka ( Mise en place de la stratégie de Migration Event): - Documentation (assurer un transfert de compétences en internes / Inventaire & cadrage de l'existant / Automatisation (Scripting Shell, Python) / Gouvernance de données via Catalogue). - Migration de la configuration du Cluster (OnPremise to Cloud) - Documentation d'architecture/ exploitation (Réplication de cluster / Build par environnement d'exploitation). - Garantir la résilience , la sécurité et la performance de la nouvelle plateforme. - Accompagnement des Producers/Consumers lors de la mise en production sous la nouvelle plateforme . - Support de proximité lors du projet de Migration (Gestion Incident & Run) et stabilisation de l'écosystème post migration. - Mise en place du Monitoring/Alerting pour la nouvelle plateforme EventStream (Dasbhoard ELK , Dynatrace ) Périmètre et Compétence Technique : Il s'agit d'un projet de migration d'une plateforme Event Driven pour les applications métier autour d'écosystème Kafka : - Expertise Kafka & Kafka Connect - Maitrise des brique d'intégration Event Driven IBM IDR, Mirror Maker - Connaissance du Cloud IBM , IAM , VPC - Connaissance des outils API : Apigee, Rest Proxy Producer - Compétence Cloud : Container Kubernetes / Docker - Compétence Avancés sous CI CD : Git / Ansible, Terraform)/ Développement : Java / SpringBoot, Shell, Python - Méthodologie : Agile, - Tools: Lenses, ELK - Anglais technique requis . Une expérience significative en project de Migration Cloud serait appréciée.
Offre premium
Freelance

Mission freelance
Administrateur de solutions d’IAM

LOGIC SA
Publiée le
Apache Tomcat
API REST
ForgeRock

14 mois
550-600 €
Noisy-le-Grand, Île-de-France
Description des prestations Livrables et résultats attendus Réaliser l’administration de nos solutions IAM, principalement en traitant les demandes relatives à nos différentes offres de services. § Traiter toutes les demandes de delivery de nos solutions IAM dans les délais impartis § Fournir les comptes rendus des ateliers réalisés avec les clients pour les demandes de delivery complexe. § Fournir de manière mensuel les statistiques de traitement des demandes. Assurer le premier niveau de support à nos utilisateurs, principalement en traitant les incidents remontés ou la gestion des problèmes. § Assurer le support N1 des solutions actuellement utilisées. § Réaliser les escalades aux niveaux de support supérieur quand cela est nécessaire. § Fournir de manière mensuel les statistiques de traitement des incidents et des problèmes. La mise en place de documentations techniques permettant d’améliorer les actions d’administration. § Fournir ou faire évoluer les documentations relatives à l’administration des solutions actuellement utilisées.
Freelance

Mission freelance
Expert .net CORE / expérience intégration système de paiement/ Azure/ SQL SERVER/ Kafka (H/F)

Octopus Group
Publiée le
.NET
.NET CORE
Apache Kafka

6 mois
480-600 €
Ivry-sur-Seine, Île-de-France
Nous recherchons pour le compte de notre client dans le retail un développeur back-end .NET sénior (6 à 9 ans d’expérience minimum) spécialisé dans les systèmes de paiement (PSP) pour intervenir au sein de sa Digital Factory, dans un contexte d’industrialisation, d’amélioration continue de la qualité et de modernisation des interfaces front. La mission consiste à : Concevoir, développer et maintenir des services de paiement robustes, sécurisés et résilients Garantir la fiabilité et la cohérence des flux transactionnels (validation, capture, refund, 3DS, gestion des middle states, gestion des échecs et retries) Contribuer à la qualité globale du produit en s’assurant que chaque évolution améliore l’expérience utilisateur, la fluidité du paiement et le taux de transformation S’impliquer activement dans l’observabilité : suivre les indicateurs transactionnels, analyser les comportements en production, anticiper les problèmes avant qu’ils n’impactent l’utilisateur Travailler en étroite collaboration avec les équipes Produit, Sécurité, QA, DevOps, Cloud et Architecture pour garantir un niveau de fiabilité maximal Assurer la responsabilité du service en production : surveiller les anomalies, traiter les incidents, comprendre les signaux faibles et garantir la stabilité du système Participer activement à l’amélioration continue : performance, sécurité, conformité, résilience, réduction de la dette technique, refactorings ciblés S’inscrire dans une approche orientée résultat : fluidité du parcours de paiement, réduction des échecs, performance transactionnelle, taux de succès, valeur business
Freelance

Mission freelance
Développeur Full Stack Java/J2EE-Angular (H/F) - 13

Mindquest
Publiée le
Angular
Apache Kafka
Java

3 mois
290-510 €
Marseille, Provence-Alpes-Côte d'Azur
Mission * Élaborer les spécifications techniques générales du projet sur la base des spécifications fonctionnelles, en fonction de l’architecture technique et des exigences en termes de sécurité. Étudier les opportunités et la faisabilité technologique de l’application. Assurer le développement et la maintenance corrective et évolutive des applications. Assurer la cohérence, la sécurité, la performance et la pérennité des applications. Documenter les développements ultérieurs et la mise en production. Harmoniser et industrialiser l’ensemble des composants et applications. Contribuer au design des applications en optimisant l’expérience utilisateur. Faire de la veille technologique. Contribuer à l’amélioration de la chaine de développement (DevOps) et participer à des études transverses de la DSI.
CDI

Offre d'emploi
Engineering Manager Hands-on

Recrut Info
Publiée le
Apache Kafka
NestJS
Next.js

70k-90k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Rattaché·e au Directeur de l'ingénierie logicielle, vous prendrez le lead sur une équipe de 4 à 7 personnes et travaillerez sur l'une des solutions logicielles éditées par la société. Bien que votre travail ne consistera pas à coder toute la journée, vous passerez néanmoins. 30 à 40% de votre temps en moyenne sur des tâches orientées développement et même jusqu'à 75% au cours de vos 3 premiers mois afin de vous imprégner du contexte technique. A ce titre, vous oeuvrerez dans un contexte particulièrement exigeant et pointu : beaucoup d'éléments du quotidien des équipes visent à être à l'état de l'art, que ce soit sur le plan organisationnel, sur l'architecture logicielle ou bien sur la modernité des technologies utilisées. Dans ce contexte, tout est sujet à optimisation et amélioration continue, si la stack est principalement construite en TypeScript avec NestJs (Node) et Next (React) et hébergées dans des conteneurs sur Google Cloud Platform orchestrés via Kubernetes, beaucoup de passerelles sont conçues en NoCode avec Make et s'appuient sur des traitements IA propulsés notamment par OpenAI (ChatGPT). Bien Entendu, une petite part d'"Event Driven" vient parachever ce tableau. Sans maitriser sur le bout des doigts toutes les solutions techniques exploitées par la société, tous les sujets cités précédemment devront être maitrisés rapidement sur le plan "structurel" pour pouvoir être force de proposition et guider les évolutions futures des produits. Néanmoins, vos responsabilités ne seront pas uniquement techniques, vous aurez aussi à charge le management de l'équipe de développeurs qui vous sera assignée tant sur le suivi des projets que sur les aspects plus "logistiques" et "humains". Vous travaillerez également, conjointement avec le Product Manager dédié, à l'élaboration de la roadmap produit et serez amené·e à participer à des réunions d'avant vente ou d'évolutions produits avec les entreprises clientes de la société. Enfin, vous garderez un oeil sur les metrics fournis par les Data collectées par la société de manière à guider vos décisions sur les évolutions à mener en fonction des usages clients. Environnement technique : TypeScript (souhaité), NestJS (souhaité), ReactJs (souhaité), OpenAI (souhaité), GCP (souhaité), Kubernetes (souhaité), AI (souhaité), Next.js (souhaité), TDD (requis), Archi Hexagonale (souhaité), GitLab, PostgreSQL, REST, ElasticSearch, Low Code (souhaité).
Freelance

Mission freelance
Développeur Full Stack Python - full remote

Net technologie
Publiée le
Apache Airflow
Azure
IA

3 mois
450-500 €
France
Renforcer et fiabiliser une plateforme interne utilisée par les équipes commerciales , qui permet de sélectionner des leads via Salesforce et d’interagir avec un backend API . Aujourd’hui, la plateforme a des soucis de stabilité et de fiabilité . La mission consiste donc à la stabiliser, l’optimiser et à y ajouter des fonctionnalités d’intelligence artificielle générative pour guider les actions commerciales et améliorer la performance des équipes. 🛠️ Missions principales Stabiliser et optimiser le backend existant Assurer une bonne communication entre Salesforce et le backend via API Intégrer des recommandations guidées par IA générative pour aider les commerciaux Automatiser et orchestrer les workflows avec Apache Airflow Déployer et gérer la plateforme sur Microsoft Azure Développer de nouvelles fonctionnalités en Full Stack Python
CDI
Freelance

Offre d'emploi
Développeur Python / FastAPI

VISIAN
Publiée le
Apache Airflow
FastAPI
pytest

1 an
Paris, France
Objectif : Concevoir et maintenir des services back-end scalables et performants. Responsabilités Développer et optimiser des API (REST) en Python (FastAPI). Concevoir et maintenir des bases de données (PostgreSQL principalement) pour des requêtes performantes. Collaborer avec les équipes DevOps pour automatiser les déploiements (Docker, CI/CD). Intégrer des tests automatisés (pytest) et participer aux revues de code. Contribuer à l'amélioration continue de l'architecture back-end. Stack technique Langages : Python. Bases de données : PostgreSQL, NoSQL. Pipeline de données : Airflow ou autres Outils : Docker, Git, CI/CD, Ansible, Terraform.
CDI
Freelance

Offre d'emploi
Data Engineer DBT/Snowflake/Tableau/Airflow

OBJECTWARE
Publiée le
Apache Airflow
DBT
Snowflake

3 ans
40k-66k €
270-500 €
Île-de-France, France
Objectif de la mission Objectif global : Construire et maintenir les produits DATA Loyalty Présentiel 2j / semaine au siège SQL / Snowflake - Confirmé - Impératif DBT / Airflow / Astronomer - Confirmé - Impératif Data modeling / Data Quality - Confirmé - Important Tableau / Data Viz - Junior - Souhaitable Français Courant (Impératif) Anglais Professionnel (Impératif) Prestations demandées Sous la responsabilité du Tech Lead, vous êtes l'acteur clé en charge des chaînes d'approvisionnement, de transformation et de mise en valeur des données, participant à la conception et modélisation des produits, assurant la conformité et la maintenabilité des solutions développées, et relevant les défis techniques liés à la volumétrie et à la qualité du patrimoine de données. Au quotidien, vos missions sont de : - Concevoir, développer et déployer les solutions de gestion des données "Cloud-Native" - Assurer la conformité et la maintenabilité du code (TDD, commentaires, etc.) - Détecter, analyser et résoudre les incidents ou anomalies survenant sur les produits de l'équipe - Contribuer aux chantiers transverses (usine logicielle-CI/CD, supervision, catalogue, etc.) - Comprendre la finalité métiers des produits, et surtout la complexité fonctionnelle des données manipulées - Assurer la cohérence de la modélisation des données du patrimoine avec l'aide des Data Managers - Accompagner les profils Produit ou Data Science dans le cadrage des besoins de données métiers (disponibilité, qualité, etc.) - Participer à l'animation de la communauté "Data Tech" (diffusion bonnes pratiques, capitalisation code, veille techno, etc.) - Sensibiliser nos différents interlocuteurs aux enjeux et bénéfices 'data' Qualifications Compétences Data & Analytics requises : - Utilisation de la « Modern Data Stack » (Snowflake, dbt, Tableau, Airflow, etc.) - Intégration & manipulation de données massives (SQL, Python, etc.) - Connaissances des architectures « Data » opérationnelles ou analytiques - Mise en place de supervision de données (contrôle qualité, rejets, alertes) - Connaissances des réglementations sur les données, notamment personnelles (ex : RGPD) Compétences générales attendues : - Connaissances et mise en œuvre des méthodologies Agile : Scrum & Kanban - Culture & techniques DevOps - Collaboration et travail en équipe - Bonne communication orale et écrite - Autonomie et proactivité - Gestion des priorités, risques et alertes - La connaissance du monde de l’hôtellerie est un plus. - Anglais opérationnel requis.
CDI

Offre d'emploi
Tech Lead SQL/Bash

Codezys
Publiée le
Apache Kafka
API
Bash

Lille, Hauts-de-France
Contexte Nous sommes à la recherche d'un Tech Lead pour intervenir sur des applicatifs liés au référencement des données produits ainsi qu'à la construction de l'offre. Le produit concerné est un système legacy en cours de décommissionnement, qui gère la nomenclature, ainsi que les données commerciales, légales et financières des fournisseurs. Cette mission couvrira l'ensemble du cycle de développement, depuis la conception jusqu'au déploiement et la gestion opérationnelle (run). Vos missions En tant qu'expert, vous serez responsable de l'application des bonnes pratiques de développement, notamment en matière de qualité de code, de revue de code, de pair programming et de performances. Vous garantirez la cohérence des choix technologiques et applicatifs pour l'ensemble des solutions. Vous devrez rapidement assimiler l'écosystème et le contexte BASA. Vous prendrez en charge la montée en compétences sur GIT pour le produit, en accompagnant l'équipe dans cette transition. Vous serez également responsable de la mise en place et du maintien des pipelines CI/CD pour le déploiement. Vous réaliserez le développement d'API et travaillerez sur les nouvelles technologies, notamment Carbon. Vous assurerez une veille technologique continue afin d'optimiser le produit et d'anticiper les évolutions.
Alternance
CDI

Offre d'emploi
Alternance - Data Analyst / Data Engineer F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
Numpy

Bordeaux, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
DATA ENGINEER GCP

Peppermint Company
Publiée le
Apache Spark
Google Cloud Platform (GCP)
Hadoop

Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre d’un projet stratégique de transformation data, nous recherchons un Data Engineer orienté développement , capable d’intervenir sur une migration d’envergure d’Azure vers GCP . 🛠️ Missions principales Participation active à la migration des pipelines data d’Azure vers GCP Développement et optimisation de traitements data Conception d’architectures data robustes et scalables Collaboration avec les équipes data et métiers Contribution aux bonnes pratiques data engineering 🔧 Stack technique Google Cloud Platform (GCP) – niveau confirmé requis Apache Spark / Scala Hadoop ecosystem Forte orientation développement (profil Data Engineer "DEV")

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

309 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous