Trouvez votre prochaine offre d’emploi ou de mission freelance Apache à Paris

Votre recherche renvoie 79 résultats.
Freelance

Mission freelance
Data engineer GCP SPARK PYTHON

KEONI CONSULTING
Publiée le
Python

18 mois
100-600 €
Paris, France

CONTEXTE Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Silver, la mission se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. Le stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant dbt • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques

CDI

Offre d'emploi
Dév Java / Kafka (anglais)

AVALIANCE
Publiée le
Apache Kafka
Architecture
Java

50k-65k €
Paris, France

Contexte : renfort, en intervention sur un programme dans le domaine des paiements ; Compétences techniques requises (at least) : Expertise dans le développement backend Java ; Expertise Kafka ; Anglais : obligatoires / niveau courant écrit et oral demandé : échanges en anglais au quotidien avec des équipes externes notamment les Banques en Espagne, Italie, Allemagne... (les échanges sont en français au sein de l'équipe) ; Very 'Nice to have" : Compétences techniques qui feront la différence (en plus de Java et Kafka) : architectures hautement distribuées, résilience, scalabilité, haute disponibilité... ; expérience dans l'Agilité ; expérience bancaire (idéalement dans les paiements mais ce point n'est pas obligatoire) ; Une expérience dans le settlement serait un vrai plus. Soft skills (at least) : autonomie, rigueur, esprit d'équipe, très bonne communication, bonnes capacités rédactionnelles, reporting adapté... ;

CDI

Offre d'emploi
Dév Java / Kafka (anglais)

AVALIANCE
Publiée le
Apache Kafka
Java
Méthode Agile

40k-65k €
Paris, France

Contexte : renfort, en intervention sur un programme dans le domaine des paiements ; Compétences techniques requises (at least) : Expertise dans le développement backend Java ; Expertise Kafka ; Anglais : obligatoires / niveau courant écrit et oral demandé : échanges en anglais au quotidien avec des équipes externes notamment les Banques en Espagne, Italie, Allemagne... (les échanges sont en français au sein de l'équipe) ; Very 'Nice to have" : Compétences techniques qui feront la différence (en plus de Java et Kafka) : architectures hautement distribuées, résilience, scalabilité, haute disponibilité... ; expérience dans l'Agilité ; expérience bancaire (idéalement dans les paiements mais ce point n'est pas obligatoire) ; Une expérience dans le settlement serait un vrai plus. Soft skills (at least) : autonomie, rigueur, esprit d'équipe, très bonne communication, bonnes capacités rédactionnelles, reporting adapté... ;

Freelance

Mission freelance
Product Owner _ Data

CAT-AMANIA
Publiée le
Apache NiFi

12 mois
500-550 €
Paris, France

Nous sommes à la recherche pour l'un de nos clients dans le domaine de l'assurance d'un Product Owner sur des projets DATA : Tâches : - Piloter le backlog Data autour des technologies de la plateforme data - Définir la vision produit autour des flux de données, de la recherche et de la visualisation. - Recueillir les besoins métiers liés à la collecte, l’analyse et la restitution des données. - Prioriser le backlog en fonction de la valeur métier et des contraintes techniques. - Rédiger les user stories pour les équipes techniques (Data Engineers, DevOps). - Piloter les développements et les intégrations sur NiFi, Grafana et Elasticsearch. - Valider les livrables : pipelines NiFi, dashboards Grafana, index Elasticsearch. - Piloter les cérémonies agiles : Daily, Sprint planning, Sprint déma, Sprint rétrospectives - Assurer la qualité des données et la performance des flux. - Suivre les indicateurs clés : latence des flux, disponibilité des dashboards, pertinence des recherches. -Collaboration : Collaborer avec les équipes interfonctionnelles, notamment les ingénieurs logiciels, les architectes de données et les analystes, pour comprendre les exigences métier et assurer une intégration harmonieuse des pipelines de données.

CDD
CDI
Freelance

Offre d'emploi
Tech Lead Data Engineer – Big Data / Java Spark

CBX Conseil ( CBX Group )
Publiée le
Apache Spark
Big Data
Cloudera

3 ans
Paris, France

Contexte du projet : Dans le cadre d’un vaste programme de transformation digitale, CBX Group accompagne un grand acteur dans la mise en place et l’industrialisation d’une plateforme Big Data. Nous recherchons un Tech Lead Data Engineer expérimenté pour renforcer l’équipe Data et piloter la conception, le développement et la mise en production de traitements batch et temps réel, tout en encadrant les Data Engineers de la squad. Missions principales : Piloter la conception et le développement de pipelines en Spark SQL et Java Spark (batch & streaming). Définir les standards de développement et garantir la qualité technique de la squad (revues de code, bonnes pratiques, CI/CD). Concevoir et optimiser des traitements temps réel (Kafka, MongoDB, event-driven). Accompagner le design des usages Data en lien avec les Product Owners et le métier. Assurer l’optimisation et le tuning des traitements Spark pour garantir performance et scalabilité. Encadrer et coacher les Data Engineers de l’équipe, favoriser le partage de connaissances. Documenter l’architecture et les traitements dans Confluence, assurer le support et la maintenance. Participer aux rituels agiles et contribuer à la roadmap technique de la plateforme. Stack technique : Cloudera / MAPR, Java 11/17/21, Spark 2/3, Spring Boot, Kafka, MongoDB, Jenkins, Kubernetes, ArgoCD, SonarQube ; cloud GCP

Freelance

Mission freelance
DATA ENGINEER Scala/Spark

KEONI CONSULTING
Publiée le
autonomie
Rundeck

18 mois
100-500 €
Paris, France

CONTEXTE L'entité a donc également un but humain en assurant la réussite des développeurs en reconversion. La mission consiste à renforcer une équipe de Data Engineers pour réaliser des projets Scala/Spark pour le compte de l’un de nos clients. MISSIONS Vous assurerez le pilotage de plusieurs projets basés majoritairement sur les technologies Python sur le périmètre de la filiale Energie. Le pilotage concerne l’ensemble des projets de cette filiale confiés à D2D. Les engagements de l’entité D2D envers la filiale sont assurés grâce à un plateau projet composé de 2 à 4 développeurs, un ops et un architecte. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : Le profil recherché pour la mission est celui d’un chef de projet SI/Data. Une expérience significative est requise pour ce poste. Il bénéficiera d’un accompagnement du responsable de domaine / directeur de mission sur le périmètre et du responsable de l’équipe Chefs de Projets Data pour les aspects outillage et méthodologie. Ce soutien sera plus important au début de la mission, notamment pour la prise en main des outils indispensables mais peu répandus comme TimePerformance. Qualités requises - Excellent relationnel - Capacité rédactionnelle - Capacité d’adaptation et de travail en équipe - Rigueur et esprit de synthèse - Esprit d’initiative - Autonomie

Freelance
CDI

Offre d'emploi
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

Digistrat consulting
Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins

Freelance

Mission freelance
Administrateur Technique plateforme Cloudera

Cherry Pick
Publiée le
Apache Airflow
Apache Kafka
Apache Spark

12 mois
580-600 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Administrateur Technique plateforme Cloudera" pour un client dans le secteur des telecoms Description 🎯 Contexte L’entité Data & AI (230 experts) accompagne Orange Business dans sa transformation autour de la donnée et de l’intelligence artificielle. L’équipe Platform conçoit et maintient les composants techniques qui permettent de démocratiser l’usage de la Data & de l’IA pour les salariés et clients. Au sein de cette équipe, la mission s’inscrit dans le cadre de l’Enterprise Data Hub (EDH), plateforme Big Data B2B d’Orange Business : +180 sources de données intégrées +700 To de données hébergées +100 projets Data supportés Migration et évolution vers le Cloud Azure en cours 🛠️ Missions principales En tant qu’Administrateur Technique Big Data, vous intégrerez l’équipe en charge de l’exploitation et de l’évolution de la plateforme : RUN & Support : gestion opérationnelle de la plateforme Cloudera et des composants Big Data. Déploiement : participation aux déploiements de nouvelles plateformes et environnements. Monitoring & Optimisation : mise en place et suivi des outils de monitoring, tuning des performances. Automatisation : développement de scripts et d’outils pour uniformiser et industrialiser les processus. Documentation & Knowledge sharing : rédaction et mise à jour de la documentation technique. Collaboration internationale : échanges avec des équipes réparties sur plusieurs continents (anglais professionnel).

Freelance
CDI
CDD

Offre d'emploi
Consultant(e) Devops - Ingénieur de production App

CBX Conseil ( CBX Group )
Publiée le
Apache Tomcat

3 ans
Paris, France

Mission – Ingénieur de Production DevOps Nous recherchons un Ingénieur de Production DevOps pour renforcer nos équipes sur une mission longue durée au sein d’un environnement critique et stimulant. 🎯 Vos responsabilités 🔹 Déploiement & Exploitation Assurer la mise en production et l’exploitation des applications critiques Gérer l’obsolescence des serveurs (JBoss, Tomcat, Apache, IHS, HAProxy) 🔹 Automatisation & CI/CD Concevoir, mettre en place et maintenir des pipelines CI/CD Outils : Jenkins, XL Release, XL Deploy, GitLab CI, Ansible, Terraform, Docker 🔹 Supervision & Ordonnancement Gérer et optimiser l’ordonnancement des batchs (VTOM, Control-M) Développer et suivre des dashboards opérationnels (Grafana, Prometheus, ELK, Zabbix) 🔹 Architecture & Sécurité Contribuer à la conception d’architectures robustes Intégrer les pratiques DevSecOps en lien avec les équipes OPS, projets et sécurité 🔹 Suivi & Gestion des incidents Assurer le suivi de production et la gestion des incidents Participer aux astreintes pour garantir disponibilité et performance 🛠️ Votre expertise Serveurs d’applications : JBoss, Tomcat, Apache, IHS Outils DevOps : Jenkins, Kubernetes, OpenShift, GitLab CI, Ansible, Docker, XL Deploy/Release Langages : Python, Shell, YAML ✅ Conditions de la mission 📍 Localisation : Mode hybride (50% télétravail) ⏳ Durée : 3 ans 🚀 Démarrage : ASAP 💼 Contrat : Freelance ou Portage salarial 💰 Rémunération : selon profil Candidature & contact Formulaire en ligne sur la page cbx group : https: // forms/d/e/1FAIpQLSfTFhuwps06soi_ykdqhUtbkW73_2WwxPnKeRnQ1EJPSI6ing /viewform?usp=dialog Ou par mail : contact @ cbx - conseil com 👉 Abonnez-vous à notre page LinkedIn cbxgroup pour suivre toutes nos offres et actualités : 🔗 https: // lnkd "point" in / eJ4CdKnE

CDI
Freelance

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS

UCASE CONSULTING
Publiée le
Apache Spark
Microsoft Analysis Services (SSAS)
Scala

3 ans
25k-58k €
310-530 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Freelance

Mission freelance
Data Engineer / Développeur Data (Azure / Spark / Observabilité) H/F

LeHibou
Publiée le
Azure
Data analysis
Grafana

36 mois
550-650 €
Paris, France

Contexte de la mission Vous intégrerez une équipe data transverse au sein d’un grand groupe international du secteur du luxe et de la cosmétique, actuellement en pleine modernisation de sa plateforme data. L’objectif : industrialiser et fiabiliser la chaîne de traitement des données dans un environnement cloud Azure, tout en renforçant les volets observabilité, performance et qualité. L’équipe (8 à 10 personnes) est composée de data engineers, data analysts, product owners et DevOps. Le cadre de travail est international, agile et collaboratif, avec une forte culture de la qualité, de la rigueur technique et du partage de connaissances. Missions principales Concevoir, développer et maintenir des pipelines data robustes et scalables sous Azure Databricks et PySpark. Participer à la refonte du Data Lake / Lakehouse (Delta Lake – architecture medaillon : bronze, silver, gold). Mettre en place des mécanismes d’observabilité pour suivre la performance, la fiabilité et la qualité des données : logs, métriques, alertes, dashboards. Automatiser et industrialiser les déploiements via CI/CD (GitHub Actions ou Azure DevOps). Collaborer avec les équipes produit et data science pour assurer la cohérence fonctionnelle et technique des flux. Améliorer la data quality et la traçabilité (lineage, monitoring, règles de validation). Participer aux revues de code, à la documentation technique et à la diffusion des bonnes pratiques. Environnement technique Cloud : Azure (Data Lake, Data Factory, Databricks, Synapse, Functions, Event Hub, DevOps) Langages : Python, PySpark, SQL (et idéalement Scala) Orchestration / ETL : Airflow, ADF, Spark Structured Streaming Observabilité : Grafana, ELK Stack (Elasticsearch / Logstash / Kibana), Azure Log Analytics Data Lakehouse : Delta Lake, Unity Catalog, Medallion Architecture CI/CD & DevOps : GitHub Actions / Azure DevOps, Terraform, Docker, Kubernetes

Freelance

Mission freelance
Tech Lead (Cloud / Symfony / Next.js / Kafka)

KEONI CONSULTING
Publiée le
Apache Kafka

18 mois
100-500 €
Paris, France

CONTEXTE: EXperience : 7 ans et plus Métiers Fonctions : Etudes & Développement, Développeurs Spécialités technologiques : Back-End ;Front-End, Cloud, APIs Base de données Description et livrables de la prestation Nous sommes à la recherche pour un de nos clients d'un Tech Lead pour superviser une équipe de développeurs et se placer en tant que bras droit du responsable projet. Contexte : Coordination de la communication entre APIs de plusieurs équipes Nous recherchons un profil ayant une posture très affirmée, un excellent niveau de discours et un français impeccable. Expertise souhaitée Le cahier des charges : - Cloud : AWS avec stockage S3 - Base de données : PostgreSQL - API : Symfony 6/7 avec API Platform - Back-for-front : NestJS pour servir le front - Front-end : Next.js (React) - OS : Ubuntu LTS (maîtrise CLI/Linux requise) - Service Mesh : Istio/Linkerd - Event bus : Kafka (migration RabbitMQ → Kafka)

Freelance

Mission freelance
Chef de Projet Intégration et Flux Confirmé - Transformation Digitale Retail - IDF (H/F)

EASY PARTNER
Publiée le
Apache Kafka
Boomi
Gestion de projet

3 mois
500-550 €
Paris, France

Contexte du poste Notre entreprise, acteur majeur dans le secteur de la distribution, entreprend une transformation digitale ambitieuse pour renforcer son offre omnicanale. Vous rejoindrez notre Département des Systèmes d'Information, plus précisément le pôle « Encaissement et Promotion » du domaine « Encaissement et Monétique ». Au cœur de notre programme, votre mission sera de piloter l'intégration de notre nouvelle solution d'encaissement dans notre système d'information. Notre objectif est de maximiser l'efficacité et l'innovation au service de nos milliers de points de vente. Nous cherchons un Chef de Projet Intégration et Flux Confirmé pour avancer ensemble vers cet avenir prometteur. Missions - Piloter l'intégration de la solution cible dans le SI via des interfaces en temps réel ou différé. - Coordonner les travaux avec le responsable API et les équipes concernées. - Gérer le suivi budgétaire des opérations du projet. - Superviser la validation des contrats d'interfaces et l'adaptation des patterns d'intégration. - Mettre en place la supervision proactive des flux. - Préparer et animer les comités de pilotage et assurer un reporting précis au comité de projet NEMO.

Freelance
CDI

Offre d'emploi
DevOps Kubernetes Engineer / SRE

KLETA
Publiée le
Apache Airflow
Apache Kafka
CI/CD

3 ans
Paris, France

Au sein d’une équipe d'expertise, vous intervenez en tant que DevOps / SRE Platform sur l'évolution et la maintenance d’une plateforme moderne orientée Big Data & Streaming. L’objectif est d’assurer la fiabilité, l’évolutivité et la sécurité de l’écosystème technique basé sur Kubernetes, Kafka et GCP. Responsabilités principales Migration Cloud & Conteneurs : Migration des composants depuis l’IaaS vers Google Cloud Platform (services managés) et Kubernetes (GKE). Administration Kubernetes & Operators : Gestion et maintenance de clusters Kubernetes (GKE) et déploiement des opérateurs critiques. Data Streaming & Kafka : Maintien de la plateforme Streaming temps réel basée sur Kafka. Orchestration & Pipelines : Administration du Cloud Composer (Airflow) et mise en place de pipelines d’ingestion de données. Infrastructure as Code & Sécurité : Déploiement d’infrastructures via Terraform, gestion du patch management et renforcement de la sécurité des composants. CI/CD & Automatisation : Maintenance et optimisation des pipelines CI/CD (Jenkins, GitLab-CI) et contribution à l’industrialisation des déploiements. Observabilité & Fiabilité : Mise en place et suivi du monitoring (Prometheus, Grafana), gestion proactive des incidents et amélioration continue de la disponibilité des services. Innovation & Support : Réalisation de POC sur de nouvelles technologies, support technique aux équipes de développement et accompagnement des équipes RUN.

CDI

Offre d'emploi
Data Scientist Assurance

REDLAB
Publiée le
Apache Airflow
Docker
Pandas

40k-45k €
Paris, France

Dans le cadre d’un projet stratégique pour un grand acteur de l’assurance, nous renforçons notre équipe Data au sein du DataLab Groupe . Vous interviendrez sur des projets innovants de Data Science, de la R&D jusqu’à l’ industrialisation de modèles ML , avec un fort impact métier sur la lutte anti-fraude, la maîtrise des risques climatiques et la prévention des sinistres graves. Profil recherché 5+ ans d’expérience en Data Science , avec projets menés jusqu’à l’industrialisation. Forte capacité à encadrer, challenger et vulgariser auprès des équipes. Expérience en conduite du changement et interaction avec des utilisateurs métiers. Une curiosité et une veille active sur les nouvelles approches ML/IA.

Freelance
CDI

Offre d'emploi
Data Engineer Pyspark/Dagster

VISIAN
Publiée le
Apache Spark
PySpark
Python

2 ans
40k-79k €
400-650 €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Pyspark/Dagster Mission: Architecture : Définition de l’organisation du Lakehouse dans le S3 Chargement : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs. Si vous êtes actuellement à l'écoute du marché, n'hésitez pas à m'envoyer votre candidature. Bien à vous, Nadia

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

79 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous