Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 187 résultats.
Freelance

Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

Publiée le
Apache

24 mois
250-500 €
Paris, France
Télétravail partiel
Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting
Freelance

Mission freelance
CONSULTANT APACHE SUPERSET

Publiée le
Apache

24 mois
250-500 €
Paris, France
Télétravail 100%
Dans le cadre d'un renfort d'équipe chez l'un de nos clients : Nous recherchons un consultant Data / BI / Dataviz avec une expertise sur "Apache Superset" Missions principales : Configuration de dashboards superset : Création de dashboards dynamiques et interactifs pour répondre aux besoins spécifiques de l'entreprise Intégration de données provenant de différentes sources Mise en forme des données pour une visualisation claire et efficace Développement de plugins : Création de plugins personnalisés pour étendre les fonctionnalités de Superset Intégration de nouvelles sources de données Automatisation des tâches de reporting Informations complémentaires : Type de contrat : Prestation de service Début de mission : Immédiat Lieu de travail : Castres / Full Remote
CDI

Offre d'emploi
Expert KAFKA Senior

Publiée le

60k-80k €
Île-de-France, France
Télétravail partiel
CONTEXTE DE LA MISSION L’organisation souhaite mettre en place un socle de streaming de données temps réel afin de gérer ses flux de données, en s’appuyant sur des standards de gouvernance et de bonnes pratiques. La prestation vise à assurer la gestion complète du service de streaming, incluant notamment : La maintenance corrective et préventive (support de niveau intermédiaire et expert) La maintenance évolutive (mise en œuvre de nouveaux flux ou d’améliorations) L’accompagnement des ressources techniques (sessions de formation, suivi des montées en compétence, coaching opérationnel) La structuration et l’outillage de la base de connaissance Le pilotage opérationnel et le reporting régulier des indicateurs de service La proposition devra prendre en compte les éléments suivants : Expertise sur les plateformes de streaming distribuées (traitement de flux, connecteurs, clusters distribués) Connaissances en sécurité, supervision et pratiques DevOps (conteneurisation, orchestration) Capacité à documenter les solutions et à former les équipes Missions: Audit et conception : analyse des besoins, définition de l’architecture cible, de la gouvernance et des standards Déploiement : installation et configuration de la plateforme et des outils associés, mise en œuvre de la haute disponibilité et des mécanismes de reprise Gouvernance et bonnes pratiques : définition des règles d’usage, gestion des flux, des droits et des schémas de données Transfert de compétences : formation des équipes et production de documentation opérationnelle PRESTATIONS ATTENDUES Prise en charge des demandes via un outil de gestion des tickets Cadrage, conception et analyse d’impact Établissement des devis (sur la base d’unités d’œuvre négociées) et planning associé Réalisation (développements, paramétrage et configuration) Tests unitaires, assistance à la recette et aux phases de validation Fourniture de jeux de données et rédaction des cahiers de recette Tests d’intégration et de non-régression Production des documentations fonctionnelles et techniques détaillées Prise en charge de projets existants dans le cadre d’une prestation de réversibilité
Freelance

Mission freelance
Administrateur Kafka

Publiée le
Apache Kafka
Automatisation
IAC

3 ans
Toulouse, Occitanie
Télétravail partiel
L’administrateur Kafka est responsable de l’installation, de la configuration et de l’exploitation des clusters Kafka. Il assure la supervision, la performance et la disponibilité de la plateforme, tout en garantissant sa sécurité via TLS, ACL et bonnes pratiques d’accès. Il gère le cycle de vie des topics, des partitions et des données, optimise les flux et automatise les opérations via des outils IaC. Il accompagne les équipes applicatives, résout les incidents liés aux producers/consumers et contribue à l’amélioration continue de l’écosystème Kafka (Connect, Schema Registry, monitoring).
Freelance

Mission freelance
Consultant Kafka H/F

Publiée le
Apache Kafka
API
DevOps

3 ans
550-650 €
Paris, France
Télétravail partiel
Contexte Au sein de l’équipe Data Analytics, nous concevons, déployons et maintenons des architectures Big Data destinées à répondre aux besoins internes de l’entreprise. Dans le cadre du renforcement de notre équipe support, nous recherchons un Data Engineer spécialisé Kafka pour intervenir sur des plateformes critiques à fort volume de données. Missions principales Mettre en œuvre son expertise sur Kafka (conception, configuration, optimisation et troubleshooting) Assurer le support, l’automatisation et le maintien en conditions opérationnelles (MCO) des plateformes Kafka Participer aux développements de l’équipe Data Analytics, notamment sur le projet “Topic as a Service” Contribuer à l’amélioration continue des architectures Big Data et des processus d’exploitation Assurer le support de la plateforme Worlwide Participer à la documentation technique et au partage des bonnes pratiques Interagir avec des équipes internationales dans un environnement anglophone Environnement technique Apache Kafka OpenSearch Elastic Stack : Elasticsearch, Logstash, Kibana, Beats Ansible Git / Bitbucket Développement Python REST APIs
Freelance

Mission freelance
Expert Big Data – Spark / Airflow – Secteur Bancaire

Publiée le
Apache Airflow
Apache Spark

12 mois
400-460 €
Montreuil, Île-de-France
Dans le cadre de notre développement, nous recherchons un Expert Big Data pour accompagner un acteur majeur du secteur bancaire sur des projets stratégiques liés à la transformation et à l’optimisation de ses plateformes de données. Le consultant aura un rôle clé dans l’architecture et la mise en œuvre des pipelines Big Data, garantissant performance, scalabilité et conformité aux exigences métier et réglementaires. Objectifs de la mission : Conception et développement de pipelines Big Data Définir et mettre en place des architectures de traitement de données complexes. Développer et optimiser des workflows Spark et Airflow pour des traitements batch et temps réel. Assurer la qualité, la fiabilité et la performance des pipelines. Support stratégique et technique Conseiller les équipes sur les choix technologiques et les bonnes pratiques Big Data. Participer à la définition de la stratégie de données et à la roadmap technique. Collaborer étroitement avec les équipes métier et IT pour anticiper les besoins et prioriser les évolutions. Gouvernance et qualité des données Garantir la conformité des pipelines aux normes de sécurité et réglementaires du secteur bancaire. Mettre en place des mécanismes de supervision, de monitoring et d’alerte. Assurer la documentation technique et fonctionnelle des solutions déployées.
Freelance

Mission freelance
Expert Datastage PX / Spark (flux inter-applicatifs)

Publiée le
Apache
AWS Cloud
CI/CD

3 ans
400-550 €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Expert Datastage PX – flux inter-applicatifs – transition Python / Spark – environnement SAFe . Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco.fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/PXPY/4994 dans l’objet de votre message Le prestataire intervient sur un socle data existant reposant majoritairement sur Datastage PX , complété par des traitements en PySpark , comprenant un volume important de traitements, de jobs et de chaînes ordonnancées, avec de fortes dépendances entre applications. La prestation couvre notamment : L’exploitation quotidienne du socle Datastage PX La maintenance corrective et évolutive des traitements data L’optimisation de chaînes Datastage complexes L’administration de l’outil Datastage La gestion des incidents data La mise en place et l’adaptation de nouveaux périmètres de données La participation aux travaux de modélisation des données à destination des usages décisionnels La gestion et l’évolution de flux inter-applicatifs entre applications du SI Dans un contexte de transformation du SI data, la prestation inclut également : L’accompagnement d’un projet de décommissionnement d’un socle historique Le remplacement de sources existantes par des flux issus d’un environnement cloud (AWS) L’impact et l’adaptation de nombreuses chaînes Datastage existantes La réécriture progressive de traitements Datastage vers Python et Spark / PySpark Des travaux transverses en parallèle sur : des pipelines CI/CD appliqués aux flux data un outil de gouvernance de la donnée (Apache Atlas : métadonnées, rôles, sécurité) La prestation s’exerce dans un environnement Agile à l’échelle (SAFe) , avec un fonctionnement en train agile, une coordination transverse entre plusieurs équipes et une forte dépendance aux équipes de recette.
Freelance

Mission freelance
Data Engineer Scala/Spark.

Publiée le
Azure
Databricks
Datadog

1 mois
450-520 €
Saint-Denis, Île-de-France
Télétravail partiel
Client : Entreprise de transport Poste : Architecte technique Senior DSM Expérience : Plus de 8 ans TJM d’achat max : 5 15€ Localisation : Banlieue parisienne Deadline réponse : 09/12 Démarrage : 01/01/2025 Durée : Mission très longue DESCRIPTION DE LA MISSION Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein de Data Engineer Senior Scala/Spark. Vous interviendrez en tant que contributeur individuel sur l’étude, le chiffrage, la réalisation et l’exploitation de tâches liées à la constitution de traitements Data complexes. Les projets sont menés en équipe de 2 à 6 Data Engineers, accompagnés d’opérateurs, d’architectes et encadrés par un chef de projet. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en méthodologie agile, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est variable mais toujours constitué sur la base d’US (User Stories). Les livrables liés aux US sont donc variables mais suivent généralement une recette commune liée à la Definition of Done du projet. Ces livrables sont réalisés par l'équipe projet, sans responsabilité de production individuelle. Les sprints s’échelonnent généralement sur 2 semaines. Contenu général des sprints : Développement des US et tests associés ; Documentation du projet, mapping des données, modélisation des pipelines, documents d’exploitation ; Mise en place du CI/CD sur l’usine logicielle ; Mise en place du monitoring ;
Freelance

Mission freelance
Expert WebMethods – Kafka / Streaming (H/F)

Publiée le
Apache Kafka
JIRA
JSON

1 an
400-580 €
Île-de-France, France
Télétravail partiel
La mission s’inscrit dans un programme de modernisation des échanges de données temps réel au sein d’une plateforme iPaaS / Digital PaaS destinée à des applications à forts volumes et à forte criticité métier dans le secteur de l’énergie . L’objectif est d’apporter une expertise senior webMethods couplée à une maîtrise des architectures événementielles et streaming , notamment autour de Kafka . Le consultant participera à la conception, à l’intégration et à l’optimisation de flux temps réel, depuis les phases amont jusqu’au maintien en condition opérationnelle . Il jouera un rôle clé dans la performance, la scalabilité et la fiabilité des solutions, tout en contribuant aux POC, à la documentation et au support de niveau 3.
Freelance

Mission freelance
Développeur Java / Kafka F/H

Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java

12 mois
450-480 €
La Défense, Île-de-France
Télétravail partiel
Description de la prestation : Le consultant intégrera une squad du programme Galaxy. En intégrant l’équipe de développeurs, il participera à l’estimation et la réalisation des fonctionnalités. En lien avec le Tech Lead de sa Squad, il travaillera avec un Ops pour la partie CICD et sera garant de la qualité du code produit. Les missions s’articulent autour des axes suivants : • Participer aux phases de Discovery ; • Prendre part dans les analyses techniques et les études d’impacts en amont des développements ; • Concevoir des solutions en respectant et en promouvant les bonnes pratiques de développements ; • Fournir des estimations concernant les futures réalisations (dans le cadre de la méthode SCRUM) • Réaliser les développements en suivant les bonnes pratiques de développement de l'entreprise. • Effectuer des contrôles croisés afin d’assurer la qualité des développements réalisés par l’équipe ; • Assurer le support de niveau 2 aux équipes d’homologation lors des phases de recette ; • Assurer le support lors des mises en production de chacune des évolutions ; • Assurer le maintien en condition opérationnelle des applications du périmètre. • Participer aux activités du Chapter Back End (développement de librairies transverses, partage de connaissances, développement de poc avec impact sur la squad et le Chapter) Les aptitudes requises : Compétences métiers/techniques : • Développement Back-End en JAVA 17/21 • Les frameworks JAVA communs tels que Spring (Web, Security, Boot...) • Connaissance et pratique d’Apache Kafka (Producer, Consumer). Les connaissances de Kafka Stream, Kafka Connect et du Schema Registry seront considérées comme un gros plus • Maitrise des API REST • Les modèles d’architectures Microservice • Connaissance et pratique de l’architecture hexagonale • Connaissance et pratique du TDD, BDD, Cucumber • Pratique de la sécurité des API • Serveur d'application Jetty, Tomcat et des technologies JEE • Utilisation des outils de CICD (Gitlab) et de contrôle de source (Git) • Utilisation de Docker et Kubernetes • Les bases de données et la modélisation (SQL, PostgreSQL, Oracle, MySQL, Hibernate) • Les méthodologies Agile (User story, backlog, cérémonies, etc …)
CDI
Freelance

Offre d'emploi
Data Engineer - SPARK/SCALA

Publiée le
Apache Airflow
Apache Spark
PySpark

12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
Freelance
CDI

Offre d'emploi
Data engineer - Vannes - 5-10 ans d'éxpérience Vannes (56)

Publiée le
Agile Scrum
Apache
Apache Kafka

1 an
40k-45k €
400-550 €
Vannes, Bretagne
Télétravail partiel
Merci de bien lire l'annonce ci dessous et vérifier que vous correspondez au besoin. Nous recherchons exclusivement des candidats basés à Vannes ou en Bretagne . Merci de ne pas envoyer de candidature si vous êtes situés hors de cette zone géographique. En tant que Data Engineer , votre mission principale sera de produire des solutions techniques robustes et performantes pour exploiter au mieux les données du client. Cependant, votre rôle ne se limitera pas à l’aspect technique : vous serez également un partenaire stratégique des métiers , capable d’identifier leurs besoins, de comprendre leurs enjeux et de proposer des solutions techniques adaptées. Vos responsabilités : Concevoir, développer et maintenir des pipelines de données performants et évolutifs Participer à la définition de l'architecture Data Développer les solutions de collecte et de stockage des données Mettre en place les tests unitaires et automatisés Garantir la qualité, la sécurité et l’intégrité des données tout au long de leur cycle de vie. Implémenter des solutions qui optimisent la gestion des données pour les équipes métier. Collaborer étroitement avec les équipes métier pour comprendre leurs objectifs stratégiques. Faciliter la communication entre les équipes techniques et les non-techniciens Vous serez à la croisée des chemins entre technique et métier , jouant un rôle clé pour transformer les données en un véritable levier de décision. Votre capacité à allier expertise technique et vision stratégique fera de vous un acteur indispensable pour relever les défis de l’entreprise.
CDI
Freelance

Offre d'emploi
Ingénieur Systèmes Linux (SysOps)

Publiée le
Administration linux
Apache
Apache Tomcat

1 mois
39k-46k €
300-350 €
Nantes, Pays de la Loire
Dans le cadre du renforcement de leurs équipes systèmes, nos partenaires recherchent un Ingénieur Systèmes Linux confirmé pour intégrer une équipe experte en charge de l’installation et de l’exploitation de progiciels sur des environnements Linux à forte valeur ajoutée. Vous évoluez dans un contexte technique moderne, intégrant des pratiques Cloud privé, conteneurisation et CI/CD. Enjeux et missions Installation et mise en production de progiciels sur environnements Linux. Administration et exploitation des systèmes Linux. Support et optimisation des serveurs applicatifs. Participation à l’industrialisation et à l’automatisation des déploiements. Contribution aux pipelines CI/CD et aux pratiques DevOps/SysOps. Travail collaboratif au sein d’une équipe de 10 à 12 personnes. Rédaction et maintien de la documentation technique dans un cadre normé (ISO 9001).
Freelance

Mission freelance
Consultant Technique API & Event (REST / Kafka)

Publiée le
API
Apigee
Run

18 mois
100-350 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 2 ans et plus Métiers Fonctions : Etudes & Développement, Consultant technique Spécialités technologiques : API Contexte Dans le cadre des projets 2026 et du RUN de la plateforme API, notre client renforce son Centre d’Excellence API & Events (6 personnes : production & gouvernance). Objectifs de la mission : - Contribuer au BUILD et au RUN des APIs et Events - Accompagner la structuration et la montée en maturité du centre d’expertise APIs Répartition : - 50 % BUILD / 50 % RUN MISSIONS - Rédaction/écriture d’API (Swagger / OpenAPI) - Accompagnement des équipes techniques et métiers sur le design d’APIs - Conception technique des Events et APIs asynchrones (AsyncAPI) - Contribution à la gouvernance de la plateforme Kafka - Participation à la modélisation des objets métiers du SI : JSON / NoSQL (documents, dénormalisation) & SQL relationnel selon les cas d’usage - Documentation des APIs - Support aux équipes consommatrices Un Architecte d’Entreprise accompagne la mission pour les aspects métiers si nécessaire. Expertise souhaitée Profil recherché : - 2 à 3 ans d’expérience minimum - Forte orientation API & Event-driven Compétences clés : - Excellente maîtrise de Swagger / OpenAPI - Excellente maîtrise de Kafka : Expert – impératif - Une connaissance de APIGEE est un +
Freelance

Mission freelance
POT8828 - Un Expert WebMethods – Echanges de Données / Kafka sur Nanterre

Publiée le
XML

6 mois
280-410 €
Nanterre, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients un Expert WebMethods – Echanges de Données / Kafka sur Nanterre Mission : - Développement et support sur la plateforme iPaaS (WebMethods). - Conception de services API, intégration et monitoring. - Expertise sur bus d’échange événementiels Kafka, streaming analytics. - Participation à la performance et sécurité des flux. Compétences clés : - WebMethods, Kafka, ElasticSearch. - SOA, API Management, Big/Fast Data. - DevSecOps : Jenkins, GitLabCI, Ansible. - Langages : Java, XML, JSON, SOAP/REST.
Freelance

Mission freelance
Ingénieur Big Data / Cloudera – Automatisation & Production (H/F)

Publiée le
Apache Kafka

3 ans
Île-de-France, France
Le service réalise le développement de l'ensemble des services BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L'expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : - L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l'administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants Environnement technique :  Ansible  Apache NiFi  Hadoop (Big Data)  Kafka  Scripting (GuitHub, Ansible, AWX, shell, vba)

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

187 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous