Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 309 résultats.
Freelance

Mission freelance
Tech lead Apache Camel ( java d'intégration) Anglais 550 e/J

BI SOLUTIONS
Publiée le
Apache
Test unitaire

2 ans
400-550 €
Île-de-France, France
Tech lead Apache Camel ( java d'intégration) Anglais 550 e par j HT Développement Apache Camel , Test fonctionnel et technique jira Nous recherchons un ingénieur Maitrisant l Tech lead APACHE CAMEL Java d'intégration TECH LEAD Apache Camel (Framework Java d’intégration) GITLAB, Confluence, JETBRAIN, Jenkins, JIRA, SONARQBE. Bonne capacité d'adaptation , bonne expression ecrite et orale. est unitaire / JIRA PARIS ANGLAIS AGILE Autonome / PROACTIF Mission ASAP En région Parisienne 550 E PAR JOUR
CDI
Freelance

Offre d'emploi
Développeur Fullstack Java / Angular – Système d'analyse télécom

ANAFI CONSULTING
Publiée le
Angular
Apache Tomcat
Interface Homme-Machine (IHM)

6 mois
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Développeur Fullstack Java / Angular – Système d'analyse télécom Nous recherchons un développeur fullstack expérimenté pour renforcer une équipe projet dans le cadre du développement d'un système d'analyse de signaux télécom. Vous interviendrez sur une application web métier permettant l'analyse de résultats via des interfaces graphiques et cartographiques, avec des enjeux forts de performance et de maintenabilité. Vos missions Au sein d'une équipe technique aguerrie, vous prendrez en charge : La migration et la montée de version du frontend Angular jusqu'à la version 20 L'optimisation des performances d'affichage Le développement et la maintenance du backend Java (architecture client-serveur, Spring, Hibernate) L'implémentation et l'évolution des routes REST Le développement d'IHM techniques avec Angular, Plotly, GoldenLayout et primeNG La rédaction de documentation de conception La participation à l'intégration avec les autres sous-ensembles du systèm
Freelance

Mission freelance
Analyste d'exploitation Junior

Cherry Pick
Publiée le
Apache Tomcat
Exploitation
Linux

12 mois
250-270 €
Rennes, Bretagne
Dans le cadre d'un renforcement d'équipe au sein d'un environnement informatique critique, notre client recherche un Analyste d'Exploitation pour assurer la continuité et la performance des services applicatifs. Le candidat intégrera une équipe dynamique pour prendre en charge le suivi opérationnel, la gestion des alertes et l'optimisation des flux de production. Missions principales Rattaché(e) aux responsables applicatifs, vos responsabilités s'articulent autour de trois axes majeurs : 1. Pilotage et Run Applicatif Assurer le suivi quotidien du "Run" applicatif pour garantir la disponibilité des services. Piloter l'ordonnancement via IWA - Tivoli / IWS (suivi des flux, relances, et accompagnement lors de la migration de l'outil). Surveiller les outils de monitoring ( Dynatrace , Zabbix ) et traiter les alertes en temps réel. 2. Gestion des Incidents et Support Réaliser un premier diagnostic et résoudre les anomalies en s'appuyant sur les procédures existantes. Effectuer des analyses de logs approfondies (Windows, applicatif) pour identifier les causes racines. Préparer les éléments techniques ("donner les billes") pour faciliter l'escalade et le suivi de la résolution auprès des responsables applicatifs ou intégrateurs. 3. Documentation et Amélioration Rédiger et mettre à jour les procédures d'exploitation et les bases de connaissance via Confluence . Participer au suivi des tickets et des tâches via Jira .
CDI
Freelance

Offre d'emploi
Data Scientist MLOps (H/F)

STORM GROUP
Publiée le
Apache Airflow
BigQuery
MLOps

3 ans
45k-55k €
400-500 €
Île-de-France, France
Missions : • contribution aux projets décisionnels - Big data • participation et animation de groupes de travail avec les utilisateurs et les informatiques • collecte des besoins auprès des métiers • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs
CDI

Offre d'emploi
Ingénieur DevOps Kafka Streaming - F/H

AVANISTA
Publiée le

Guyancourt, Île-de-France
Depuis 2012, nous mettons notre expertise au service des secteurs de l’IT et l’Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d’une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Ingénieur DevOps Kafka streaming au sein de nos équipes pour l’un de nos clients. Le contexte ? Le pôle technologique CCXP conçoit et opère des plateformes « as a service » facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes pour l’ensemble des entités du Client En tant que data ops engineer, vous rejoindrez l’équipe Interfaces, répartie en 3 squads orientées produit dont le périmètre s’étend de la conception du service à son maintien en condition opérationnelle en production Plus particulièrement vous intégrerez la squad Streaming qui est composée de 7 personnes et qui gère le build et le run de la plateforme streaming composée de plus de 30 clusters Kafka (Confluence) dédiés. En tant que Devops Streaming, vous évoluerez dans un environnement technique complexe, distribué, sécurisé et hautement disponible. Vos missions : Mise en œuvre opérationnelle et techniques de la plateforme Streaming Industrialiser et automatiser les déploiements avec Ansible Apporter une expertise technique aux utilisateurs de la plateforme Mettre en production de nouveaux clusters et mettre à l'échelle les clusters existants (scale horizontal et vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Développer des prototypes en lien avec les cas d’usages des entités Démontrer la valeur des offres Data auprès des entités Participer au Daily meeting animé par le Squad Lead Participer à l’ensemble des rituels agiles de la Squad (Rétro, Démos, Pi Planning) Participer aux réunions de co-construction de la roadmap et de la mise en œuvre de la roadmap sous la gestion du product owner Data et du responsable de la Squad dont il dépend Prendre des éléments de la backlog qui ont été formalisée par le Squad Lead et mettre en œuvre les éléments de la backlog Rendre compte des difficultés auxquelles il est confronté et proposer des solutions pour les résoudre Collaborer en équipe avec les membres de la Squad et son Squad Lead Être le lead sur un produit technique au sein de cette Squad Participer à l’élaboration des formations, WebTech et Démos aux référents Clusters et Entités qui consomment ou pourraient consommer les produits Participer aux astreintes technique de la Squad Streaming messaging
Freelance

Mission freelance
Ingénieur de Production (localisation à Lille - 2J TT / Semaine)

Cherry Pick
Publiée le
Apache Kafka
Control-M
Linux

24 mois
350-450 €
Lille, Hauts-de-France
Fiche de poste – Ingénieur de Production N3 (Linux / Windows) Contexte de la mission Dans le cadre du renfort de l’équipe de production, nous recherchons un Ingénieur de Production expérimenté pour intervenir sur une solution interne stratégique d’échange de messages utilisée par le SI. La mission s’inscrit dans un environnement critique avec des flux d’échanges entre brokers et systèmes MVS . Localisation Site principal : Lille Mission L’ingénieur de production interviendra sur l’exploitation et le support N3 d’une plateforme d’échanges de messages interne (équivalent à un middleware type Kafka ou RabbitMQ). L’outil : reçoit des requêtes côté broker les redirige vers le MVS Le rôle inclut : le maintien en conditions opérationnelles le support N3 l’industrialisation des déploiements l’amélioration de l’exploitation Responsabilités Assurer le support de production niveau 3 Superviser et maintenir les plateformes d’échanges Gérer les incidents complexes et les problèmes de production Participer aux déploiements applicatifs Automatiser les tâches d’exploitation Participer à l’amélioration continue de la plateforme Travailler en collaboration avec les équipes développement et infrastructure Environnement techniqueSystèmes Linux (forte dominante) Windows Ordonnancement VTOM (ou équivalent Control-M) CI/CD / Déploiement XL Deploy (XLD) XL Release (XLR) Jenkins Bitbucket Automatisation Ansible Messaging MQ Series Profil recherché Ingénieur de Production senior Expérience N3 Très bonne maîtrise Linux / Windows Maîtrise XLD / XLR Connaissance des environnements middleware / messaging (Kafka ou RabbitMQ) Expérience des outils CI/CD et déploiement (XLD / XLR / Jenkins / Bitbucket / Ansible) Expérience avec ordonnanceurs obligatoires (VTOM ou équivalent Control-M)
Freelance

Mission freelance
Data Engineer - Vannes

VISIAN
Publiée le
Apache Kafka
Apache Spark
Scala

3 ans
450-500 €
Vannes, Bretagne
Localisation : Bretagne Présence sur site minimum 3 jours par semaine Candidatures locales privilégiées Contexte Au sein d’un Chapitre Data intervenant en transverse dans l’entreprise, vous contribuez à la fabrication des cas d’usage Data portés par différentes Squads métiers. Vous évoluez dans un environnement collaboratif avec des interlocuteurs variés et participez activement aux échanges avec les membres du Chapitre présents sur d’autres sites en France. Missions Participer à la définition de l’architecture Data avec les architectes et les Squads Concevoir et développer des solutions de collecte, transformation et stockage de données issues de multiples sources Développer des pipelines Spark batch et Spark Streaming Mettre en place les tests unitaires et automatisés Déployer les solutions dans les différents environnements Assurer le suivi en production et la gestion des incidents Être force de proposition et contribuer à l’amélioration continue Environnement technique Spark (batch et streaming) indispensable SQL indispensable Scala apprécié Kafka apprécié Java et Shell appréciés Stack Hadoop Cloudera HDFS, Hive, HBase, Phoenix, MongoDB Git, Jenkins, Artifactory, XL Release ELK, Grafana Méthodologie Scrum Connaissances appréciées Outils de data visualisation tels que MicroStrategy, Power BI ou Tableau Profil recherché Expérience confirmée en Data Engineering Big Data Solide maîtrise de Spark dans un environnement Hadoop / Cloudera Capacité à évoluer en contexte transverse Soft skills attendues Autonomie Adaptabilité Bonne communication Capacité à challenger les besoins Prise de lead et force de proposition
Freelance

Mission freelance
Architecte Intégration & Flux (TradeXpress) H/F

LeHibou
Publiée le
Apache Kafka
ETL (Extract-transform-load)
MuleSoft

6 mois
400-550 €
Toulouse, Occitanie
Notre client dans le secteur Aérospatial et défense recherche un/une Architecte Intégration & Flux (TradeXpress)H/F Description de la mission : Dans le cadre de la transformation de sa Digital Factory , notre client du secteur aérospatial et défense souhaite définir et mettre en œuvre une stratégie de décommissionnement progressif de la solution TradeXpress , historiquement utilisée pour la gestion des flux d’intégration. La mission vise à structurer la stratégie de sortie de TradeXpress , analyser les flux existants et accompagner la migration vers des solutions d’intégration modernes utilisées au sein du groupe. Le consultant interviendra en lien étroit avec les équipes architecture, intégration et delivery afin de cadrer la trajectoire cible et accompagner les premières implémentations. Objectifs de la mission : Réaliser l’ inventaire et la cartographie complète des flux existants opérés via TradeXpress Analyser la complexité et la criticité métier des flux Définir une stratégie de migration progressive Recommander les technologies d’intégration cibles Accompagner les équipes sur la mise en œuvre des premiers flux migrés Assurer le transfert de compétences vers les équipes internes
Freelance

Mission freelance
DATA ENGINEER GCP

ESENCA
Publiée le
Apache Airflow
BigQuery
DBT

1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Freelance

Mission freelance
LEAD DEV

Coriom Conseil
Publiée le
Apache Kafka
API REST
Bash

12 mois
400-550 €
Lille, Hauts-de-France
Code source complet, versionné et documenté Tests unitaires et d'intégration Scripts d’installation/déploiement Compétences techniques SQL, BASH, C - Confirmé - Impératif GIT et concept CI / CD - Confirmé - Impératif API Rest - Confirmé - Impératif Event (Kafka) - Confirmé - Impératif Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Description détaillée CONTEXTE Nous recherchons un Tech Lead pour intervenir sur les applicatifs liées au référencement des données Produit et la construction de l'Offre. Le produit concerné est un applicatif legacy en décommissionnement qui gère la nomencelature, les données commerciales, légales et financières des fournisseurs. La mission permettra des interventions sur toutes la chaine de la conception jusqu'au déploiement et la gestion du run.
CDI

Offre d'emploi
DevOps Senior

CAT-AMANIA
Publiée le
Ansible
Apache Tomcat
Jboss

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte de la mission Dans le cadre de la modernisation et de l’industrialisation des environnements applicatifs, nous recherchons un DevOps Senior capable de piloter l’automatisation, la fiabilisation et la sécurisation des infrastructures et des processus de déploiement. Vous interviendrez au sein d’une équipe Agile (Scrum / SAFe / Kanban) en collaboration étroite avec les équipes de développement, d’architecture et d’exploitation. Missions principales Concevoir et maintenir les pipelines CI/CD Automatiser les déploiements applicatifs Industrialiser les environnements (DEV / INT / REC / PROD) Mettre en place l’Infrastructure as Code (IaC) Assurer le monitoring et l’observabilité des systèmes Garantir la sécurité des environnements (DevSecOps) Optimiser la performance et la disponibilité des plateformes Accompagner les équipes dans les bonnes pratiques DevOps Participer aux choix d’architecture technique
Freelance

Mission freelance
Lead Developer Java - React H/F

AGH CONSULTING
Publiée le
Apache Kafka
Java
React

6 mois
240-450 €
Niort, Nouvelle-Aquitaine
Les missions du poste Nous recherchons pour l'un de nos clients, un(e) Lead Developer pour intervenir sur des projets stratégiques autour de la valorisation et de l'exploitation de données. Les principaux périmètres fonctionnels sont : - Projet Climatique : développement et évolution d'API Java dédiées au scoring climatique - DataHub : mise en place et évolution des mécanismes d'ingestion d'événements et de flux de données Vous évoluerez dans un environnement technique moderne et participerez à la structuration des pratiques de développement au sein de l'équipe. A ce titre, vos principales missions seront les suivantes : - Leadership technique -Superviser et assurer la bonne progression des développements -Définir les orientations techniques et les choix d'architecture -Mettre en place et promouvoir les bonnes pratiques de développement -Accompagner l'équipe dans la résolution des problématiques techniques -Être le référent technique et garantir la qualité du code -Comprendre les enjeux métier et encadrer techniquement une équipe de 2 à 3 développeurs - Développement et architecture -Participer activement aux développements -Concevoir et décliner les architectures techniques -Assurer la robustesse, la performance et la maintenabilité des applications -Contribuer aux évolutions et à l'amélioration continue de la plateforme Environnement technique Backend : -Java 11 à 21 -Spring Boot (MVC) - versions 1.5 à 3 Frontend : React Base de données : PostgreSQL Infrastructure : -VM Tomcat -OpenShift Architecture et data : -API REST / SOAP -Kafka -NAS -S3
Freelance

Mission freelance
Data Engineer Sénior (Hadoop / Python)

Les Filles et les Garçons de la Tech
Publiée le
Apache Spark
Hadoop
Python

12 mois
150-650 €
Lyon, Auvergne-Rhône-Alpes
Au sein du pôle Big Data d'un grand groupe, l'objectif principal de ce poste est de réaliser et de maintenir les développements nécessaires à l'alimentation du Datalake sur une plateforme Cloudera Hadoop, de mettre en place des extractions de données et d'accompagner les utilisateurs. Rattaché(e) au responsable Big Data, vous évoluerez dans un contexte de production à fortes attentes où la tenue des délais de livraison et le pilotage opérationnel sont primordiaux. Vos principales missions seront les suivantes : Développement et intégration : Prendre en charge les évolutions des données à intégrer et reprendre les développements existants pour l'alimentation du Datalake. Vous développerez également des extractions avec un niveau d'expertise en SQL et créerez des scripts Shell avancés pour l'automatisation. Expertise technique et mentorat : Spécifier techniquement les tâches, fournir des requêtes de référence, effectuer des revues de code et accompagner les collaborateurs juniors, stagiaires ou alternants. Support et accompagnement : Assurer le support de niveau 2, faire appliquer les bonnes pratiques et consignes aux utilisateurs, et rédiger la documentation requise (guides, description de processus). Optimisation et maintenance : Garantir la maintenabilité, les performances et l'exploitabilité de la plateforme en respectant l'utilisation des modèles référencés par la Gouvernance de la Donnée. Vous optimiserez les traitements de la plateforme et ceux des utilisateurs, et mènerez des investigations (reverse engineering) dans une architecture héritée complexe
Freelance
CDI

Offre d'emploi
Senior DevOps / Platform Engineer

KLETA
Publiée le
Apache Kafka
AWS Cloud
CI/CD

3 ans
Paris, France
Je recherche pour un client grand compte un Senior DevOps / Platform Engineer afin d’intervenir au sein d’une Software Factory en pleine structuration , dans un contexte de forte montée en charge des plateformes digitales. Contexte Vous interviendrez sur des plateformes critiques, avec des enjeux importants de : scalabilité standardisation des pratiques industrialisation des déploiements observabilité applicative data streaming Missions Structuration des pratiques DevOps / Platform Engineering Standardisation des déploiements applicatifs (Helm, CI/CD) Industrialisation des pipelines Mise en place et évolution de l’ observabilité applicative Accompagnement à l’adoption de OpenTelemetry / OpenSearch Contribution à l’évolution d’une plateforme Kafka / MSK Mise en place de mécanismes de self-service Participation à la définition de la roadmap technique
Freelance

Mission freelance
Data Engineer Spark/Scala

CAT-AMANIA
Publiée le
Apache Spark
Scala

12 mois
400-550 €
Hauts-de-Seine, France
Au sein de l'équipe Data, vos fonctions consisteront notamment à : Participer à l'estimation de la complexité des chantiers techniques liés à la montée de version SPARK (3.4) Concevoir et développer les traitements applicatifs en collaboration avec les intervenants internes à l'équipe, ou externes à celle-ci (architectes techniques, architectes data, experts sur des technologies liées...) Rédiger les dossiers de conception et documentations techniques nécessaires Concevoir et exécuter les cas de tests unitaires / d'intégration Faire des revues de code croisées avec les collègues de l'équipe Contribuer à l'installation et au déploiement des composants Participer activement aux rétrospectives afin de garantir le process d’amélioration continue Assurer la qualité et le suivi des développements, en participant à la correction des problèmes de production
Freelance
CDI

Offre d'emploi
Architecte Applicatif Sénior - Lyon

VISIAN
Publiée le
Apache Kafka
API REST
Java

3 ans
55k-60k €
600 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans un environnement bancaire en forte transformation technologique, une organisation d’architecture d’environ 50 collaborateurs accompagne la modernisation continue du système d’information. Le SI évolue dans un contexte marqué par : La généralisation des offres Cloud Le déploiement intensif de Kubernetes L’industrialisation des chaînes CI/CD L’essor des architectures API et microservices L’intégration de technologies d’IHM modernes L’évolution permanente d’un SI bancaire hybride , composé de briques historiques et de solutions modernes. La mission consiste à accompagner les équipes de développement dans la conception et l’évolution de solutions applicatives robustes, résilientes et évolutives. Missions Accompagner les équipes produits (squads) dans la conception technique et applicative de leurs solutions Apporter un support d’expertise sur les problématiques applicatives au sein du système d’information Participer aux travaux d’architecture transverse (patterns d’architecture, interactions entre produits, urbanisation applicative) Contribuer à la définition et la formalisation des standards d’architecture Produire les documents d’architecture fonctionnelle et applicative Accompagner les squads dans les phases de conception, développement et stabilisation des solutions Promouvoir les bonnes pratiques en matière de résilience applicative, performance et maintenabilité Environnement technique Java Spring (Core / Boot) Microservices Kubernetes Kafka REST / API Management Architectures événementielles Bases de données relationnelles et NoSQL CI/CD Cloud Conception de solutions intégrant des capacités d’IA générative Design patterns applicatifs Architectures mobiles Compétences techniques Expérience solide en développement Java et architectures applicatives Maîtrise des architectures microservices et API Expérience avec Kubernetes et les architectures conteneurisées Bonne connaissance des architectures événementielles (Kafka ou équivalent) Conception de systèmes résilients et scalables Expérience avec bases de données relationnelles et NoSQL Capacité à concevoir des architectures intégrant des services d’IA générative Compétences humaines Communication et pédagogie avec les équipes techniques Capacité d’analyse et de synthèse Autonomie et proactivité Capacité à travailler dans un environnement collaboratif et agile

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

309 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous