Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 246 résultats.
Offre premium
Freelance
CDI

Offre d'emploi
TECH LEAD JAVA KAFKA (530€ MAX)

Publiée le
Java

6 mois
53k-103k €
400-530 €
Île-de-France, France
Télétravail partiel
Concevoir, développer et maintenir des applications robustes et scalables avec les technologies Java, Spring Boot, Kafka et RabbitMQ. ● Expériences significatives avec les outils orientés données, agrégation, transformation. ● Expériences significatives avec des architectures microservices et event-driven. ● Expériences avec les bases de données relationnelles et/ou orientée document. ● Familier avec les principes DevOps, notamment la CICD. ● Familier avec le versionning, notamment Git. ● Maîtrise de PostgreSQL. ● Familiarité avec les principes DevOps, notamment la CI/CD et l’usage de Docker. ● Expérience avec AppScript pour l’automatisation et l’intégration. ● Expérience avec Azure (déploiement, monitoring, intégration). Expérience avec JavaScript pour des développements complémentaires front ou back. Connaissance et application des principes de Clean Architecture. ● Compréhension et usage des principes de craftsmanship. ● Contribuer à l'amélioration de la qualité du produit (Test coverage, Sonar, SOLID, YAGNI…)
Freelance

Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

Publiée le
Apache

24 mois
250-500 €
Paris, France
Télétravail partiel
Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting
Freelance

Mission freelance
CONSULTANT APACHE SUPERSET

Publiée le
Apache

24 mois
250-500 €
Paris, France
Télétravail 100%
Dans le cadre d'un renfort d'équipe chez l'un de nos clients : Nous recherchons un consultant Data / BI / Dataviz avec une expertise sur "Apache Superset" Missions principales : Configuration de dashboards superset : Création de dashboards dynamiques et interactifs pour répondre aux besoins spécifiques de l'entreprise Intégration de données provenant de différentes sources Mise en forme des données pour une visualisation claire et efficace Développement de plugins : Création de plugins personnalisés pour étendre les fonctionnalités de Superset Intégration de nouvelles sources de données Automatisation des tâches de reporting Informations complémentaires : Type de contrat : Prestation de service Début de mission : Immédiat Lieu de travail : Castres / Full Remote
CDI
Freelance

Offre d'emploi
DevOps Senior Kafka

Publiée le
Apache Kafka
CI/CD
Google Cloud Platform (GCP)

1 an
Maghreb Al Arabi, Rabat-Salé-Kénitra, Maroc
Télétravail 100%
Intégré(e) dans les équipes Plateforme Data le/la consultant(e) aura pour mission de participer à la mise en place et à l'amélioration continue des pipelines de données en utilisant des technologies DevOps telles que Kafka, Kubernetes et GCP. Il/elle sera en charge de l'automatisation des déploiements, de la surveillance des performances et de la gestion des incidents. Le/la consultant(e) travaillera en étroite collaboration avec les équipes de développement et d'infrastructure pour garantir la fiabilité et la scalabilité des plateformes de données. - Maîtriser les technologies GCP (Google Cloud Platform) telles que Google Kubernetes Engine (GKE), Cloud Storage, Cloud SQL et Cloud Monitoring. - Posséder une expertise approfondie de Kafka, y compris sa configuration, sa gestion et son optimisation. - Avoir une solide expérience avec Kubernetes, notamment la création et la gestion de clusters, le déploiement d'applications et la supervision des performances. - Être à l'aise avec les concepts DevOps, tels que l'intégration continue (CI) et la livraison continue (CD), et les outils associés. - Connaissance des bonnes pratiques de sécurité et de la mise en place de politiques d'accès. - Compréhension des concepts de base des bases de données relationnelles. - Maîtrise des scripts de scripting (bash, Python, etc.). - Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. - Capacité à travailler de manière autonome et à gérer son temps efficacement. - Excellente communication écrite et orale : Aptitude à produire des livrables et des reportings de haute qualité. -Esprit d'équipe : Capacité à collaborer efficacement avec les membres de l'équipe pour atteindre des objectifs communs. -Maîtrise des concepts d’Agilité (Scrum, Sprint Planning, Backlog…).
Freelance
CDI

Offre d'emploi
DATA ENGINEERING sur KAFKA

Publiée le
Apache Kafka
API REST
Elasticsearch

3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Pour notre client dans le secteur bancaire, nous recherchons un expert Kafka : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA. Les principales technologies utilisees • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Offre premium
Freelance

Mission freelance
Lead Data Engineer senior (pré-embauche)

Publiée le
Ansible
Apache Airflow
Apache Kafka

1 an
500-550 €
Hauts-de-Seine, France
Télétravail partiel
Pour l’équipe en charge de l’ingestion des données dans le datalake d’entreprise, nous sommes à la recherche d’un Lead Data Engineer pour une mission freelance en région Parisienne. Profil : Lead Data Engineer / Data Engineer Senior 1/ Les critères de choix sont : · Avoir +5 ans d’expérience en conception, développement et industrialisation de pipelines Big Data et Cloud. · Expertise en Spark, Databricks, NiFi, Kafka et environnement Azure. · Expérience confirmée en lead technique et gestion de projets data. · La connaissance de Dataiku est un atout apprécié pour l’orchestration et la gestion des flux de transformation. · Langages : Scala ou Java, Python, SQL · Maitrise outils d'ETL (Extract Transform Load) : Apache Spark, Apache Nifi, Dataiku (atout apprécié) · Ingestion & Streaming : Apache Kafka · Orchestration & Automatisation : Apache Airflow, Ansible · Cloud & Plateformes : Microsoft Azure, Azure Databricks · CI/CD & DevOps Data : Azure DevOps, Git
Freelance
CDI

Offre d'emploi
Data Engineer Scala/Spark

Publiée le
Apache Spark
Microsoft SQL Server
Scala

2 ans
40k-45k €
400-550 €
Saint-Denis, Île-de-France
Télétravail partiel
Data Engineer Scala/Spark – Grand Groupe Localisation : Saint-Denis Démarrage : 05/01/2026 Durée : longue durée TJM max : 620 € (10 jours de gratuité) Deadline candidature : 21/11/2025 Statut : Salarié ou Freelance 1 poste – +7 ans d’expérience Nous recherchons un Data Engineer senior pour intégrer une équipe Data & IA au sein d'un grand groupe, afin de renforcer la réalisation de projets Data mêlant analyse, BI et traitements big data. Le consultant interviendra en collectif avec un lead technique et un chef de projet, sur des lots incluant collecte du besoin, modélisation analytique, développement Scala/Spark, restitution BI et automatisation. Compétences techniques recherchées : Scala / Spark SQL, PySpark Power BI Databricks CI/CD (idéalement Jenkins) Environnement cloud (idéalement Azure) Responsabilités clés : Recueil du besoin et ateliers de conception Modélisation (flocon, étoile) et développement des pipelines Documentation technique & d’exploitation Mise en place d'orchestration, CI/CD, supervision Soft skills : autonomie, rigueur, adaptation, travail en équipe, bon relationnel, capacité rédactionnelle.
Freelance

Mission freelance
Développeur Java/Kafka/Kubernetes

Publiée le
Apache Kafka
Java
Kubernetes

1 an
400-550 €
Paris, France
Télétravail partiel
Je suis à la recherche d'un Développeur Java/Kafka/Kubernetes. Maitrise des compétences techniques suivantes : - Kafka (kafka streams) - Java 21 - Kubernetes - API REST Autres Compétences - Conception technique - Conception archi - Volontaire - Bon relationnel - Assurer la conception, l’intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives - Préparer la mise en production avec les équipes expertes - Gérer et maintenir la documentation fonctionnelle et technique - Assurer l’assistance à l’utilisation des applications - Assurer le diagnostic et la résolution des dysfonctionnements Au sein de cette Tribu, vous intégrerez la squad Proactivité Commerciale composée d’un PO/SM/Expert solution et 6 membres de la dev team (Business analysts/développeurs) et qui a pour missions de : - Maintenir une solution permettant de prioriser la liste des clients à contacter dans le cadre de la gestion de la relation client - Concevoir et développer des solutions pour les équipes Marketing et les Conseillers des Caisses Régionales - Assurer l’assistance fonctionnelle auprès des utilisateurs
CDI

Offre d'emploi
Software Engineer Kafka H/F

Publiée le

60k-65k €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons un Software Engineer Kafka (H/F) pour rejoindre notre équipe et contribuer à l'amélioration continue de notre plateforme Kafka et de son écosystème. Vous évoluerez dans un environnement international multi-sites, au coeur de projets techniques exigeants et stratégiques. En tant que Software Engineer Kafka, vous aurez pour responsabilités : - Développer et maintenir les outils satellites autour de la plateforme Kafka (ns4kafka, Kstreamplify...). - Assurer la stabilité, la performance et le bon fonctionnement de la plateforme Kafka. - Définir, formaliser et promouvoir les bonnes pratiques d'usage de Kafka et de ses outils associés. - Accompagner et supporter les équipes clientes (international, multi-sites). - Participer à l'automatisation des déploiements (CI/CD) et à la mise en place de tests automatisés. - Contribuer à l'amélioration continue, au monitoring et à la documentation technique. Et si on parlait de vous ? Vous justifiez d'un minimum de 5 ans d'expérience en développement ou DevOps, avec un solide socle technique. Compétences techniques : - Kafka - Unix / Linux - Git / GitLab - CI/CD - Docker et Kubernetes - Observabilité : OpenTelemetry, Grafana Compétences fonctionnelles : - Support et accompagnement des équipes - Élaboration et diffusion des bonnes pratiques - Documentation technique Compétences comportementales : - Curiosité - Orientation client - Rigueur - Adaptabilité Atouts supplémentaires : - Expérience en monitoring (Splunk, Grafana, OpenTelemetry) - Connaissance d'Azure - Familiarité avec les principes ETL (Datastage, Boomi) Langue : - Anglais lu, écrit, parlé Pourquoi nous rejoindre : - Opportunités d'évolution : parcours de carrière personnalisé, mobilité interne. - Entreprise à taille humaine, esprit d'équipe et bienveillance : entraide, culture du feedback, management de proximité. - Missions variées et innovantes : projets en lien avec les dernières tendances tech. - Rémunération attractive : paniers repas 6,30EUR, prime ancienneté, prime de vacances, CE, participation, prime de cooptation, - Un accélérateur de carrière et formation continue : chez nous, chaque collaborateur bénéficie d'un accompagnement personnalisé pour évoluer. - Une entreprise engagée : nous mettons l'accent sur le bien-être au travail, la diversité, l'inclusion et la responsabilité sociétale (Top 3 performance RSE / Dév.Durable - ECOVADIS, Certification ISO27001), réduction de notre empreinte carbone, partenariats avec des associations). Notre processus de recrutement : en 3 étapes ! Tout simplement. 1. Dans un premier temps, vous échangerez avec l'une d'entre nous par téléphone 2. Puis, nous aurons le plaisir d'échanger en visio accompagné de l'un de nos managers opérationnels 3. Bienvenue chez nous ! Ce poste vous intéresse ? Place à l'action : Postulez ou partagez avec votre réseau ! kafka KUBERNETES DEVOPS
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-400 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance

Mission freelance
Développeur Hadoop/Spark

Publiée le
Hadoop
PySpark

6 mois
100-400 €
Lille, Hauts-de-France
Bonjour, Je suis à la recherche Développeur Hadoop/Spark : Missions principales : Ø Concevoir, développer et maintenir des pipelines de données robustes et performants sur les environnements Databricks et Hadoop/Spark. Ø Participer activement à la migration et à l’optimisation des architectures de données vers le cloud (AWS, Databricks). Ø Mettre en place et maintenir des tableaux de bord et rapports interactifs sous Power BI pour la restitution des données. Ø Assurer la qualité, la sécurité et la gouvernance des données tout au long du cycle de vie. Ø Réaliser une veille technologique continue et contribuer à l’amélioration des pratiques de l’équipe. Ø Documenter les développements, garantir la traçabilité et le partage des connaissances. Ø Être force de proposition sur l’optimisation des processus et l’automatisation des tâches récurrentes.
Freelance

Mission freelance
Développeur Kafka

Publiée le
Apache Kafka
API REST

1 an
400-680 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Visian recherche pour un de nos clients bancaire un profil Développeur Kafka Sénior afin de renforcer ses équipes IT. Les missions confiées porteront à la fois sur l’ensemble des phases projets ainsi que sur le suivi et la résolution d’incidents, du périmètre applicatif en responsabilité. Participation aux cadrages des projets : étude d’impacts, conception de solutions, chiffrage Rédaction des spécifications fonctionnelles & détaillées, en anglais Mise en place de tests de non-régression automatisés Supervision des travaux de développements externalisés, en anglais Réalisation et exécution de phases de tests IT Rédaction des documentations liées aux évolutions réalisées dans un outil documentaire partagé Préparation et suivi des mises en production des applications du périmètre Suivi de la phase VSR Forte communication avec toutes les parties prenantes métier & IT des projets (conformité, marketing, architectes, …) Suivi, analyse et résolution d’incidents
Freelance

Mission freelance
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)

Publiée le
Apache
Apache NiFi
Apache Spark

12 mois
400-650 €
Paris, France
Télétravail partiel
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
Freelance
CDI

Offre d'emploi
Data Ops

Publiée le
Apache Spark

1 an
40k-45k €
400-550 €
Quartier du Montparnasse, France
Télétravail partiel
· Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. · Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. · Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. · Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. · Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Freelance

Mission freelance
Dev java/Kafka/spring boot

Publiée le
J2EE / Java EE

1 an
380-400 €
Lille, Hauts-de-France
Télétravail partiel
L’équipe en charge des applications conduit une transformation stratégique de son écosystème, avec une migration d’un monolithe vers une architecture microservices et une modernisation complète du backend (Java/Spring Boot) et du frontend (React/NextJS). Le défi consiste à garantir la robustesse et la scalabilité des solutions tout en assurant un support de niveau 3 sur des applications critiques. Le profil recherché doit apporter une expertise Java senior, participer activement à la refonte technique, contribuer aux développements, au refactoring et aux tests, tout en renforçant les pratiques d’ingénierie (DORA metrics, qualité, bonnes pratiques). L’autonomie, la capacité à analyser des incidents complexes et l’intégration fluide dans une équipe agile sont essentielles. Les compétences clés attendues : Java, Spring Boot, API REST, Kafka, PostgreSQL, Docker/Kubernetes, GitHub Actions, avec une appétence pour React/NextJS. L’anglais intermédiaire est requis.
CDI
Freelance

Offre d'emploi
DATA ENGINEER SPARK/SCALA

Publiée le
Apache Airflow
Hadoop
PySpark

6 mois
40k-45k €
400-550 €
Paris, France
Télétravail partiel
Je recherche pour un de mes clients dans le domaine de la banque/Assurance un Data Engineer : Contexte de la mission Dans le cadre d'un renfort équipe, nous sommes en recherche d’un profil confirmé avec de bonnes compétences en ingénierie des données (Big Data) pour intervenir sur des sujets en lien avec le périmètre marketing. Le prestataire interviendra au sein d'une équipe Big Data d'une quinzaine de personnes travaillant en mode projet agile. Objectifs et livrables Il contribuera au Run quotidien et à l'évolutivité des applications métiers tels que : la segmentation client marketing le calcul d'indicateurs de téléphonie le datamart marketing et bien d'autres. Le candidat devra faite preuve d'autonomie, de rigueur et d'un bon sens de la communication. Les compétences techniques attendues sont : Airflow Kafka, Hadoop, Bases relationnelles et NoSQL Spark Scala SQL CI/CD et DevOps Des compétences sur le cloud Azure et la conception de Webservices REST seraient appréciées. De manière générale il doit pouvoir documenter ses travaux, présenter ses réalisations en adaptant son discours et interagir avec l’ensemble des acteurs projets, ceux de l'équipe, des autres équipes IT et métiers. Compétences demandées : Apache Airflow, HADOOP, DEVOPS, KAFKA, SCALA, Spark

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

246 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous