Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 266 résultats.
Freelance

Mission freelance
Date Engineer DBT SNOWFLAKE AIRFLOW

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Apache Airflow
DBT
Snowflake

6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte de la mission Mon client est engagé dans une transformation data ambitieuse. Cette évolution les amène aujourd'hui à répondre à des besoins métiers croissants côté Snowflake. Pour renforcer leur équipe de 2 consultants experts BI déjà en place, ils recherchent un consultant BI/Data senior capable de monter rapidement en autonomie sur un environnement technique exigeant. Missions principales Répondre aux besoins métiers en matière de reporting et d'analyse de données Développer et maintenir des pipelines de données via dbt et Snowflake Contribuer à l'infrastructure data avec Terraform Produire et déployer des rapports Power BI (SSIS/SSAS, Power BI Services) Gérer les déploiements via GitHub Collaborer étroitement avec les équipes métier et technique
Freelance

Mission freelance
Data Engineer GCP Airflow (H/F)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

12 mois
380-420 €
Paris, France
Data Engineer GCP/Airflow – (Freelance) Mission longue - Démarrage ASAP Nous recrutons pour un client majeur du secteur de la construction et des infrastructures , dans le cadre du renforcement de ses équipes data. Mission freelance de 12 mois minimum (renouvelable), démarrage ASAP 2 jours de télétravail flexible et Localisation Ligne 14 Profils juniors acceptés, 1 an d'expérience min. (stage, alternance, première expérience compris) Formation Bac +5 min. requise Contexte & mission Vous interviendrez sur des outils liés à la gestion de données internes, avec notamment : Analyse et traitement de logs Identification de dysfonctionnements Intégration et transformation de données Alimentation de tables BigQuery Support sur des outils internes (Dataiku, tableaux de suivi…)
Freelance
CDI

Offre d'emploi
Architecte KAFKA

LEVUP
Publiée le
Apache Kafka
Gouvernance

6 mois
Liège, Belgique
Architecte Kafka / AWS – Senior (+10 ans d’expérience)📍 Contexte Dans le cadre de projets Data & Cloud à forte criticité, nous recherchons un Architecte Kafka / AWS senior , capable de concevoir des architectures robustes tout en restant hands-on lorsque nécessaire . Tu interviendras sur des environnements complexes, à forts enjeux de performance, de scalabilité et de fiabilité. 🎯 Tes missions Concevoir et faire évoluer des architectures événementielles basées sur Apache Kafka Définir les architectures Cloud AWS (sécurité, performance, résilience, coûts) Être garant des choix techniques et bonnes pratiques Intervenir ponctuellement en hands-on (POC, troubleshooting, phases critiques) Collaborer avec les équipes de développement, DevOps et Data Accompagner les équipes dans la montée en compétences techniques Contexte international 🧠 Ton profil +10 ans d’expérience en architecture IT / Data / Event-driven Expertise confirmée sur Apache Kafka (design, exploitation, performance) Très bonne maîtrise de AWS (services Cloud, architectures distribuées) Solide compréhension des systèmes distribués À l’aise aussi bien en architecture qu’en implémentation terrain Connaissances .NET et/ou Angular appréciées Capacité à challenger les choix techniques et à vulgariser 🚀 Pourquoi nous rejoindre Projets techniques à forte valeur ajoutée Environnements Cloud & Data modernes Autonomie, confiance et responsabilité Équipe d’experts passionnés, sans micro-management
Freelance
CDI

Offre d'emploi
Développeur / Ingénieur Apache Camel (H/F)

OMICRONE
Publiée le
Apache
Docker
Kubernetes

2 ans
40k-45k €
400-450 €
Île-de-France, France
📢 Recherche – Développeur / Ingénieur Apache Camel (H/F) Dans le cadre de plusieurs projets d’intégration et de modernisation SI, nous recherchons des profils expérimentés Apache Camel pour intervenir sur des environnements techniques exigeants. 🔹 Missions Conception et développement de flux d’intégration avec Apache Camel Mise en place d’architectures ESB / microservices Intégration d’applications via API, messaging, systèmes distribués Participation à la résolution d’incidents et à l’optimisation des performances Collaboration avec les équipes architecture, data et métiers 🔹 Profil recherché Expérience significative sur Apache Camel Bonne maîtrise des patterns d’intégration (EIP) Connaissances en Java / Spring Boot Expérience sur des environnements API / messaging (Kafka, MQ, etc.) Capacité à intervenir en autonomie sur des sujets techniques complexes Anglais professionnel requis 🔹 Environnement technique (selon projets) Java, Spring Boot, Apache Camel Kafka / RabbitMQ / ActiveMQ REST APIs / Microservices Docker / Kubernetes Cloud (AWS / Azure) 🔹 Conditions 📍 Localisation : France 💼 Mission long terme 🚫 Non ouvert à la sous-traitance
Offre premium
Freelance

Mission freelance
Développeur Fullstack Java / Data

CONSULT IT
Publiée le
Angular
Apache Kafka
Apache Spark

3 ans
400-500 €
Montrouge, Île-de-France
Développement Java back-end Conception de modules de collecte (API calls, fichiers, BDD), intégration OAuth2 / SSO, architecture microservices, API REST/SOAP. Traitement de données Spark Mise en place et optimisation de pipelines Spark 3 (collecte → transformation → distribution) sur l'ensemble de la chaîne de traitement. Gestion Kubernetes Déploiement, gestion et optimisation des applications sur cluster Kubernetes, bonnes pratiques DevOps, sécurité des applications. Tests automatisés Cucumber Écriture et maintien de tests automatisés (BDD), garantie de la qualité du code, approche TDD sur les API. Visualisation PowerBI Conception et développement de dashboards et rapports PowerBI en collaboration directe avec les équipes métier. Interface infrastructure & delivery Collaboration avec le partenaire infra du client, commande de ressources, suivi du delivery et post-production, force de proposition.
CDI

Offre d'emploi
DATA ENGINEER CONFIRMÉ DATABRICKS / SPARK (H/F)

GROUPE ALLIANCE
Publiée le

55k-58k €
Paris
ACCROCHE SI TU ADORES CONSTRUIRE DES PIPELINES SOLIDES COMME LE ROC, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à l’ingénierie des données, aux flux et aux performances Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur du retail, tu participeras à la conception, à la mise en place et à l’optimisation d’architectures data robustes et évolutives au service de la valorisation de la donnée : Les pipelines de données, tu développeras La qualité, la fiabilité et la sécurité des données, tu garantiras L’intégration et la transformation des données, tu automatiseras Les architectures data (batch & temps réel), tu concevras La scalabilité et la performance des traitements, tu optimiseras Les outils de monitoring et de gestion des flux, tu mettras en place Ton équipe projet, tu accompagneras Aux rituels agiles et instances data, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 8 ans minimum en ingénierie de la donnée ou en développement data Expert(e) en AZURE, DATABRICKS, SPARK, PYTHON, SQL Habile avec les outils CI/CD, AZURE DEVOPS, AGILE, JIRA AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Freelance
CDI

Offre d'emploi
🔎 Data Engineer Senior – Apache NIFI / Databricks (H/F)

UCASE CONSULTING
Publiée le
Apache NiFi
Azure
Databricks

1 an
40k-45k €
400-550 €
Île-de-France, France
Bonjour à tous 😀 🚀 Contexte de mission Nous recherchons un Data ingénieur - Référent technique Nifi et Data , vous intervenez au sein d’une équipe Data & IA sur des environnements critiques à forte volumétrie. L’objectif : concevoir, optimiser et sécuriser les flux de données dans un contexte de production exigeant, avec des enjeux forts de continuité de service . 🎯 Vos missions Développer et maintenir des pipelines de données (Apache NIFI / Databricks) Optimiser les flux existants (performance, fiabilité, scalabilité) Assurer le RUN et le support (HNO / 24-7) Mettre en place et améliorer les processus CI/CD Superviser les traitements (monitoring, alerting) Participer aux études techniques et POC Produire la documentation et les reportings d’incidents Être force de proposition sur l’ amélioration de l’architecture data ✅ Must Have Expertise Apache NIFI Très bonne maîtrise de Databricks Expérience solide sur Azure Bon niveau en Python & Spark Expérience en environnement de production critique (RUN / incidents) Connaissance CI/CD (Git / GitLab) Expérience en monitoring (type DataDog) Bonne maîtrise des bases de données (PostgreSQL) Expérience en Agile / Scrum ➕ Nice to Have Connaissance AKS (Kubernetes) Expérience avec Zookeeper Background sur des projets data à forte volumétrie Culture DevOps / automatisation avancée
CDD
CDI

Offre d'emploi
Lead Dev Data Streaming

OCTOGONE
Publiée le
Apache Kafka

6 mois
Grenoble, Auvergne-Rhône-Alpes
Vous intervenez en tant que référent technique et pilote d’une équipe d’environ 5 développeurs sur une plateforme de data streaming dédiée à la collecte et au traitement de données énergétiques issues d’équipements terrain (capteurs IoT, automates, systèmes de gestion technique de bâtiments). L’objectif de la plateforme est de permettre le pilotage intelligent de systèmes de chauffage et de climatisation, en exploitant des flux de données en temps réel afin d’optimiser la consommation énergétique tout en garantissant le confort des occupants. Le contexte présente des enjeux très forts de volumétrie et de passage à l’échelle : ingestion massive de données issues de centaines de milliers d’équipements, gestion de flux continus à haute fréquence, et nécessité de garantir des traitements fiables et performants en conditions de charge. Vous évoluez ainsi sur des problématiques techniques exigeantes : partitionnement Kafka, gestion du throughput, optimisation de la latence, tolérance aux pannes, reprise sur incident, cohérence des données et supervision de pipelines critiques.
Freelance

Mission freelance
Consultant DevOps Senior — Expert Kafka (On-Premise & IBM Cloud)

BEEZEN
Publiée le
Ansible
Apache Airflow
Apache Kafka

12 mois
400-550 €
Montreuil, Île-de-France
Mon client recherche un Ingénieur DevOps senior Expert Kafka pour renforcer la Squad Kafka, en charge de plusieurs offres Kafka industrielles, opérées à la fois On‑Premise et sur IBM Cloud. Votre mission est de concevoir, développer et opérer des plateformes d’infrastructure modernes (PaaS, IaaS, CaaS) à destination de l’ensemble des métiers. Vous contribuerez au renforcement de l’équipe sur les sujets Kafka As Code et Kubernetes." La personne interviendra sur trois offres Kafka distinctes : Kafka On‑Premise Administration avancée de clusters Kafka Activités Build & Run Support niveau expert Automatisation via Ansible et Bash Kafka PaaS V4 (offre en fin de vie) Offre actuellement exploitée sur IBM Cloud Contributions Java / microservices Kafka Maintien en conditions opérationnelles Accompagnement de la fin de vie progressive de l’offre Kafka As Code Offre stratégique en forte montée en puissance Exploitée sur IBM Cloud Automatisation du provisioning Kafka Développement et maintenance d’outils et de pipelines internes (Python, Airflow, Terraform) Intégration CI/CD et GitOps Par ailleurs, certains composants et agents CI/CD sont déployés sur des environnements conteneurisés (Docker / Kubernetes / OpenShift). Astreinte et support opérationnel La mission inclut une participation aux dispositifs d’astreinte de la squad Kafka. les clusters Kafka On‑Premise, l’offre Kafka PaaS V4 opérée sur IBM Cloud (jusqu’à sa fin de vie), l’offre Kafka As Code opérée sur IBM Cloud. Le consultant devra être en capacité : Intervenir sur des incidents de production, Participer aux rotations d’astreinte selon les règles en vigueur, Contribuer à l’amélioration continue de l’automatisation et de la supervision afin de réduire la charge d’astreinte à moyen terme." Technologies indispensables : Apache Kafka (administration / exploitation avancée), Python, LINUX (Redhat), Git & GitLab C, Bash / scripting shell, Ansible Technologies optionnelles : GitOps (ArgoCD), Apache Airflow (Python), Terraform (Infrastructure as Code), Docker/Kubernetes, Java / microservices Kafka, Helm / Kustomize Maitrise de l' anglais
Freelance

Mission freelance
POT9139 - Un Architecte Solution Applicatif sur Paris

Almatek
Publiée le
Apache Kafka

6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un Architecte Solution Applicatif sur Paris Environnement obligatoire : Application majoritairement Java, Progiciel, Monolith et Micro-Services, On premise et Cloud, Event Driven (Kafka)… Anglais professionnel Almatek recherche pour l'un de ses clients, un Architecte Solution Applicatif sur Paris Environnement obligatoire : Application majoritairement Java, Progiciel, Monolith et Micro-Services, On premise et Cloud, Event Driven (Kafka)… Anglais professionnel
Freelance

Mission freelance
Lead DevOps Kafka Senior – Assistance Technique (IBM Cloud / Kubernetes / Kafka as Code)

Deodis
Publiée le
CI/CD

1 an
600-650 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe technique en charge de plateformes de streaming de données, la mission consiste à intervenir en tant que Lead DevOps senior au sein d’une squad dédiée à plusieurs offres Kafka opérées à la fois on-premise et dans le cloud. Le consultant participera à l’administration avancée des clusters Kafka, aux activités de build et de run, ainsi qu’au support de niveau expert en environnement de production. Il contribuera également au maintien en conditions opérationnelles d’une offre en fin de vie, tout en accompagnant le développement d’une offre stratégique basée sur une approche “Kafka as Code”, incluant l’automatisation du provisioning, le développement d’outils et de pipelines (Python, Terraform, Airflow), et l’intégration CI/CD et GitOps. L’environnement technique repose notamment sur Linux, Docker, Kubernetes et des outils d’automatisation tels qu’Ansible et GitLab CI. Le poste requiert une forte autonomie, une expertise technique solide sur Kafka, ainsi qu’une capacité à intervenir en contexte critique, incluant une participation aux astreintes et à l’amélioration continue des processus d’exploitation et de supervision.
Freelance
CDI
CDD

Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python

IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks

8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Freelance

Mission freelance
Développeur Java Kafka Angular

Pickmeup
Publiée le
Angular
Java

6 mois
400-440 €
Maisons-Alfort, Île-de-France
Dans le cadre du renforcement de ses équipes, notre client recherche un Ingénieur Fullstack Java / Angular pour intervenir sur des projets à forte valeur ajoutée. Vous serez amené à : Concevoir et développer des applications robustes en Java 17+ avec Spring Boot / Spring 5 Développer des interfaces modernes en Angular (8+) , TypeScript et HTML5 / CSS3 Participer à la mise en place d’architectures orientées microservices ( Kafka , MQ Series , JMS ) Développer et maintenir des APIs ( REST & SOAP ) Garantir la qualité du code via des outils comme JUnit , Sonar , et les bonnes pratiques CI/CD ( Jenkins , Gitlab , Maven ) Contribuer à l’amélioration continue des performances et du monitoring ( Dynatrace , Resilience4J ) Participer aux déploiements via Openshift / XLDeploy
CDI

Offre d'emploi
DATA SCIENTIST - Télécom - Lyon (H/F)

EASY PARTNER
Publiée le
Apache Airflow
Keras
Python

40k-54k €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Rejoignez une entreprise innovante appartenant à un groupe de renom œuvrant dans le domaine des télécommunications. Avec des équipes basées à Lyon, notre entreprise s'attache à transformer l'expérience client à travers le développement de solutions IT innovantes pour divers opérateurs télécoms à travers le monde. Actuellement, nous sommes à la recherche d'un Data Scientist passionné pour rejoindre une équipe dynamique et motivée, composée de 9 personnes, dédiée à l'optimisation des réseaux radio du groupe. Dans le cadre de notre croissance et de l'évolution de nos projets, nous lançons ce recrutement pour soutenir nos efforts en intelligence artificielle et en data science. Missions Missions principales - Développer et mettre en œuvre des solutions IA pour résoudre des problématiques complexes dans le secteur des télécoms, incluant l'optimisation radio et le monitoring automatique. - Contribuer à l'amélioration de l'efficacité énergétique du réseau et à la création de chatbots business-orientés. Missions annexes - Collaborer avec les commanditaires pour définir les cas d’usage et s’assurer de la pertinence des applications proposées. - Coordonner les initiatives de Crédit Impôt Recherche et encadrer un alternant en Data Science. - Participer activement à l'intégration de modèles de données dans l'environnement de production et maintenir une veille technologique rigoureuse. Stack technique Compétences à maîtriser - Python 3, SQL, TensorFlow, scikit-learn, Keras, Pandas, Matplotlib, Ploty, seaborn. - Data processing avec Jupyter Lab, Airflow, Superset. Environnement technique - Bases de données relationnelles et non-relationnelles, fichiers csv et parquet, outils de gestion de projet tels que JIRA et Confluence.
Freelance
CDI
CDD

Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python

IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks

8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Freelance

Mission freelance
Architecte Solution et Intégration SI

CAT-AMANIA
Publiée le
Apache Kafka
API

3 mois
400-690 €
Île-de-France, France
Architecte Solution Intégration SI Description de la mission Dans le cadre d'un programme de transformation majeure des processus et des solutions de financement, nous recherchons un Architecte Solution pour cadrer et sécuriser la trajectoire d'intégration entre le logiciel métier MILES et un écosystème applicatif complexe. La mission consiste à conduire des études d'architecture relatives aux flux et services d'intégration, à formaliser les choix de conception et à s'assurer de leur bonne prise en compte par les équipes de réalisation. Vous devrez produire et maintenir les livrables d'architecture critiques, notamment les Dossiers d'Architecture Technique (DAT), les schémas d'urbanisation et les matrices d'impacts. Un aspect essentiel de la mission repose sur votre capacité à challenger les solutions proposées par l'éditeur et l'intégrateur afin de garantir la conformité avec les standards internes en matière d'API, d'événementiel, de sécurité et d'observabilité. Vous contribuerez activement aux instances de gouvernance telles que les Design Authorities et les comités d'architecture pour assurer un reporting clair des décisions et des risques. Profil recherché Le candidat idéal doit justifier d'une expérience confirmée en architecture de solutions et en intégration de systèmes d'information, idéalement acquise dans le secteur bancaire ou financier. Une expertise technique approfondie est attendue sur les plateformes d'intégration modernes, incluant la gestion et la gouvernance d'API via OpenAPI/Swagger, ainsi que les architectures orientées événements s'appuyant sur Kafka. La maîtrise des outils de modélisation comme et des environnements collaboratifs Jira et Confluence est indispensable pour la production de documentations structurées. Une connaissance opérationnelle des enjeux de sécurité, du RGPD et des contraintes réglementaires de type DORA est nécessaire pour valider la robustesse des solutions proposées. Au-delà des compétences techniques, nous recherchons un profil doté d'une forte capacité d'analyse et d'une aptitude à travailler en réseau de manière autonome. La maîtrise de l'anglais est requise pour échanger avec des interlocuteurs internationaux et produire des supports de présentation de haute qualité. Une expérience préalable sur la solution MILES de l'éditeur Sofico constituerait un avantage concurrentiel majeur pour la compréhension immédiate des enjeux métiers du programme. Environnement de travail La mission s'exerce au sein de la Direction des Systèmes d'Information, plus précisément dans le domaine des applications techniques rattaché à un programme de transformation métier stratégique. Le consultant évoluera dans un écosystème multi-acteurs impliquant des équipes produits, des experts en sécurité, des spécialistes de la donnée et des équipes d'exploitation. L'organisation privilégie les méthodes de travail agiles, type Scrum ou Kanban, favorisant la collaboration continue et la réactivité face aux évolutions du projet. Le lieu d'exécution principal se situe dans le deuxième arrondissement de Paris, au sein de locaux modernes favorisant le travail d'équipe, bien qu'une ouverture aux propositions de travail à distance puisse être étudiée selon l'organisation du prestataire. L'environnement technique est à la pointe des standards actuels avec une forte culture de l'observabilité et du monitoring via des outils tels que Kibana ou OpenSearch. Le cadre de travail exige un haut niveau de professionnalisme et le respect de chartes éthiques et de sécurité strictes. L'intervenant bénéficiera d'une vision transverse sur l'ensemble de la chaîne de valeur du financement, depuis le front-office jusqu'au back-office, dans un contexte de refonte globale de l'architecture du système d'information.

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

266 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous