Trouvez votre prochaine offre d’emploi ou de mission freelance Apache à Paris

Votre recherche renvoie 77 résultats.
Freelance

Mission freelance
Product Owner tech

PARTECK INGENIERIE
Publiée le
Apache Kafka
API
JIRA

12 mois
400-550 €
Paris, France

Product Owner – Mission Freelance (B2B / International) Nous recherchons un Product Owner expérimenté (min. 5 ans) pour rejoindre une équipe produit agile et contribuer au développement et au déploiement d’une solution logicielle internationale dans un contexte B2B grands comptes. Contexte de la mission Vous intégrerez une équipe agile en charge de produits stratégiques déployés à l’international, au sein de la DSI. Votre rôle consistera à piloter le delivery et la discovery produit, en étroite collaboration avec les Product Managers, Tech Leads, développeurs (Inde), QA (France & Inde) et stakeholders internationaux. Vos responsabilités Contribuer à construire un produit core standardisé , flexible pour les filiales internationales Gérer l’ensemble du cycle produit (roadmap, user stories, priorisation, backlog, sprints, releases) Assurer la qualité et le respect des délais (tests, suivi QA, mises en production) Participer à la phase de discovery : recueil et analyse des besoins, cadrage, études d’impact Être garant des process de delivery et contribuer à l’amélioration continue Jouer un rôle transverse : communication, reporting, support au management et aux filiales Environnement & outils JIRA, Productboard, Figma Kafka, Grafana, Lenses JAVA, SQL, REST APIs, Docker/Kubernetes, AWS Jenkins, GIT, Sonar Profil recherché 5+ ans d’expérience en gestion de produit dans un environnement agile Solides connaissances en technologies Web & API Anglais courant (équipe et stakeholders internationaux) Leadership, rigueur, communication, esprit d’équipe Atout : expérience B2B grands comptes, Kafka, SQL, AWS, forte volumétrie de données Conditions Démarrage : ASAP Durée : 1 mois renouvelable Rythme : hybride (2 jours sur site / 3 jours remote)

Freelance

Mission freelance
Data engineer

ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Spark
AWS Cloud
Big Data

12 mois
510-550 €
Paris, France

Description Grâce à ses compétences alliant développement bigdata, appétences pour les modèles d’IA et architecture applicative, le data engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables • Définition et analyse des structures de données. • Contribution dans les assets des différentes équipes produits pour interconnecter et collecter les données. • Mise à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données). • Connaître et respecter dans nos propositions de valeur les exigences et problématiques liées aux réglementations en vigueur (RGPD, Data privacy, etc.) et aux standards et tendances du secteur (éco-conception, etc.). • Garant de la production (mise en place de monitoring et alerting et intervention si nécessaire). • Développement et maintien du continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés). • Présentation et explication des réalisations à des publics métiers et techniques.

Freelance

Mission freelance
Développeur fullstack Java JEE / Angular (H/F)

FRISBEE PROFILING
Publiée le
Angular
Apache Subversion
Développement

12 mois
450 €
Paris, France

Environnement : JAVA EE (EJB - pas de Spring Boot), Angular 17, Eclipse, SVN... -- 1. Traduire les besoins techniques en besoins fonctionnels o Participer à l’analyse fonctionnelle des besoins utilisateurs o Etudier les opportunités et les faisabilités technologiques de l’application o Rédiger les spécifications techniques détaillées, à partir du cahier des charges 2. Concevoir et développer o Concevoir une architecture logicielle et proposer le framework adapté au projet o Analyser et développer les composants en utilisant les langages appropriés o Assurer le développement et la réalisation des applications (prototypes et modules) o Adapter et paramétrer les progiciels retenus pour l’architecture logicielle o Harmoniser l’ensemble des composants et applications o Documenter les applications pour les développements ultérieurs et la mise en production 3. Tester et écrire les corrections nécessaires

Freelance
CDI

Offre d'emploi
INGENIEUR DE PRODUCTION

HEEVOX
Publiée le
Apache Tomcat
Control-M
Jboss

2 ans
40k-55k €
400-470 €
Paris, France

INGENIEUR DE PRODUCTION - DEVOPS Démarrage : ASAP Durée : 2 ans Localisation : Paris Télétravail : 50% Objectif global : Suivre les applications de la Comptabilité. Mission : - Maintenir en conditions opérationnelles les applications du périmètre - Maintenir la documentation d'exploitation à jour - Tester les Disaster Recovery Plan / Sauvegardes - Corriger les vulnérabilités détectées - Contribuer aux projets métiers / techniques - Configuration des déploiements dans les outils devops - Déployer les versions applicatives

Freelance

Mission freelance
Développeur Big Data

Signe +
Publiée le
.NET
Apache Hive
Apache Spark

3 mois
400-480 €
Paris, France

La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad CCO qui aujourd'hui gére l'Entrepôt des données client de la CIB à travers l'application INDIXIS utilisée par les équipes IT et métiers. L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ) Expertises spécifiques : - Spark / PySpark /Python / Java / SpringBoot / .net - Hadoop sur infra on premise - Hive / SQL/HQL - Unix/Bash - Pipeline CI/CD jenkins - XLDeploy/XLRelease - Control-M - API

Freelance
CDI

Offre d'emploi
Dev / Data Engineer orienté DevOps

VISIAN
Publiée le
Apache Spark
Control-M
Hadoop

1 an
45k-55k €
400-560 €
Paris, France

L'objectif de la mission est de renforcer une équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein d'une Squad : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets La mission principale de la prestation aura pour but de : traiter nos obsolescences de Framework (ex : springboot , spark2 ) moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : migration depuis tfs vers jenkins création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python )

Freelance

Mission freelance
Architecte Applicatif - Architecte Solution

TO B SERVICES
Publiée le
Apache Maven
API REST
Application web

12 mois
75012, Paris, Île-de-France

Au sein de la sous-direction des systèmes d'information (SDSI) de la direction du numérique (DNUM) le bureau des ressources de réalisation (BRR) est un bureau technique visant à développer des applications web et à apporter un appui dans les domaines suivants : - Architecture applicative et transverse - Devops - Développement - Captation du besoin via les UX/UI - Assistance à la MOA - Conception de base de données via les DBA L'architecte est en charge de : - définir les critères fonctionnels et métiers - définir l'architecture applicative (description/modélisation des blocs applicatifs, de leurs fonctions et services, etc ...) - définir l'architecture logicielle (couches, middlewares, protocoles) - rédiger et/ou valider le DAG en garantissant la compatibilité avec le SI du ministère - assurer la cohérence et la correspondance entre l'architecture d'infrastructure et l'architecture applicative et logicielle - veiller au respect des bons principes de cohérence et de mutualisation - participer à la sécurisation des systèmes d'information en collaboration avec les équipes SSI - contribuer à la mise en œuvre des principes de gouvernance du SI : participation à la mise à jour du CCT (Cadre de Cohérence Technique) - participer ou mettre à jour le référentiel d'architecture du la DNUM - mener des actions visant au développement de démonstrateurs (POC) - participer au dépouillement d'offres relatives à l'architecture L'architecte travaille dans le contexte d'un hébergement cloud (IaaS ou CaaS) et participe à l'implémentation des méthodes de collaboration (Agile, SAFe). Il aura des connaissances techniques approfondies en urbanisation, architecture et réseaux, protocoles web, résilience, performance, sécurité

Freelance
CDI

Offre d'emploi
Tech Lead / Senior Data Engineer Python Spark AWS

GRADIANT
Publiée le
AWS Cloud
PySpark
Python

3 ans
40k-70k €
400-630 €
Paris, France

Je recherche un profil senior Data Engineer avec une évolution rapide vers un poste de Tech Lead. Points clés : • Solides connaissances et pratique en Python (design, tests, processus de développement, etc.) • Data Engineering : architecture big data / modélisation / optimisation / environnement distribué • Connaissance du cloud AWS ; un niveau intermédiaire minimum est requis, avec une expérience pratique • Bon esprit d'équipe et capacité d'adaptation • Bonnes compétences en communication en anglais L'objectif est de développer une plateforme basée sur des technologies Big Data robustes et évolutives. Cette plateforme sera capable de traiter un volume important de données dans les différents pays où le client opère. Son objectif principal est de capturer divers indicateurs dans un référentiel centralisé, permettant d'accéder à des vues standardisées et transversales de ces indicateurs. Outre ses responsabilités techniques, le data engineer veillera au respect des directives du groupe concernant l'utilisation du cadre interne et l'architecture. Il collaborera également avec les autres parties prenantes du projet afin de promouvoir ces directives et de proposer des solutions communes pour la plateforme. Le rôle du data engineer senior dans ce projet consistera à concevoir et à mettre en œuvre les composants suivants de la plateforme : • Ingestion des données • Traitement et normalisation des données. • Distribution des données aux différentes parties prenantes. • Construire et améliorer le cadre commun, notamment en matière de surveillance, de CI/CD, de tests, de performances, de résilience, de pratiques de développement et de qualité du code.

Freelance

Mission freelance
Développeur fullstack java vue.js

Freelance.com
Publiée le
Apache Kafka
Confluence
Docker

1 an
400-450 €
Paris, France

Notre client, acteur majeur du secteur des télécommunications, recherche un profil Développeur JAVA Fullstack pour intervenir sur les applications dans le cadre de la roadmap projet. Mission Cadrage technique des évolutions sur la plateforme de vente Évaluation des charges (en jours de développement) pour chaque évolution/projet Développement des évolutions à partir des JIRA spécifiés Réalisation des tests unitaires Déploiement des applicatifs sur les environnements IPP1 et/ou IPP2 Correction des anomalies remontées par les équipes de recette

Freelance

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP

Freelance.com
Publiée le
Apache Airflow
CI/CD
Data analysis

12 mois
480 €
Paris, France

L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

Freelance

Mission freelance
Ingénieur de Production DevOps / Expertise JBoss

AVALIANCE
Publiée le
DevOps
Jboss
XL Deploy

3 ans
400-550 €
Paris, France

Dans le cadre du renforcement de l’équipe monétique, nous recherchons pour notre client Ingénieur de Production DevOps pour intervenir sur la chaîne de production des applications critiques de paiements. La mission consiste à automatiser, sécuriser et superviser les déploiements et l’exploitation des environnements applicatifs. MISSIONS : Assurer le déploiement et l’exploitation d’applications critiques sur les environnements de production, gérer l'obsolescence des serveurs d'applications. *Participer à la conception des architectures techniques et aux choix d’outillage *Mettre en place des chaînes CI/CD automatisées (Jenkins, XL Release / XL Deploy) *Administrer les serveurs web et d’applications : Apache, IHS, HAProxy, JBoss, Tomcat *Gérer l’ordonnancement des traitements batch (VTOM et Control-M) *Créer et maintenir des dashboards de suivi opérationnel *Participer au suivi de production, à la gestion des incidents, et aux astreintes éventuelles Compétences requises : JBOSS, TOMCAT, WAS, VTOM, XLR, XLD, APACHE, IHS OpenShift / Kubernetes un plus 🔧 DevOps & Automation : Jenkins, XL Release / XL Deploy GitLab CI, Ansible, Terraform, Docker Langages : Bash, Python, YAML 📦 Serveurs : Web : Apache, HAProxy, IHS Application : JBoss, Tomcat , WAS Ordonnancement : VTOM, Control-M Supervision : Grafana, Prometheus, ELK, Zabbix

Freelance

Mission freelance
Data Architecte AWS

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
AWS Cloud

24 mois
600-650 €
Paris, France

Notre client recherche un Architecte Data pour concevoir et superviser la convergence des données issues de sources hétérogènes au sein d’une plateforme cloud AWS à grande échelle. L’objectif est de définir l’architecture cible, modéliser le schéma global, et assurer la cohérence technique et la performance de la plateforme. L’environnement technique inclut : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Définir l’ architecture cible du data layer convergé dans un environnement AWS. Modéliser les données (conceptuel, logique, physique) sur Snowflake et autres bases cibles. Sélectionner les outils et normes d’intégration adaptés aux besoins. Participer au développement et à l’automatisation des pipelines et transformations de données. Superviser la convergence des données multi-source et garantir leur cohérence. Contribuer aux déploiements via Terraform et GitLab CI/CD. Documenter l’architecture et les référentiels techniques. Appliquer les bonnes pratiques de gouvernance, qualité et sécurité des données.

Freelance

Mission freelance
tech lead full stack

MLMCONSEIL
Publiée le
Angular
Java
Springboot

6 mois
100 €
Paris, France

Nous recherchons un profil tech lead pour reprendre en charge certaines activités build et run d'un projet stratégique. Il sera amené à piloter l'activité de l'équipe technique du projet (~6 personnes) et à participer aux instances du projet (interne et avec le client) et en lien avec son homologue fonctionnel et le Chef de projet. Exigées : Java 17, Spring 6, Spring Boot 3, JUnit 5, Angular 17, NgRx, Jest, GitLab, PostgreSQL, Conception technique, Chiffrage, Pilotage d’équipe technique, Revue de code Souhaitables : Elasticsearch, Tomcat, Apache, nginx, Keycloak, RGAA, DSFR

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

77 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous