Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 302 résultats.
Freelance
CDI

Offre d'emploi
Ingénieur Support et Exploitation Plateformes Data

VISIAN
Publiée le
Apache Spark
Kubernetes

1 an
40k-45k €
400-650 €
Paris, France
Descriptif du poste Notre équipe est responsable du maintien en condition opérationnelle des plateformes suivantes qui tournent sur IKS (Kubernetes IBM) et bientôt sur OpenShift : Apache Spark Apache Airflow/Astronomer Starburst (trino) Dans le cadre du renforcement de notre capacité de support sur la nouvelle offre "DATAHUB V2", nous recherchons des prestataires spécialisés dans l'exploitation et le support de ces plateformes. Missions La prestation visera à : Assurer le maintien en condition opérationnelle en production des plateformes (Airflow, Spark, Starburst) Intervenir dans la gestion des incidents, l'analyse des root causes et la résolution Participer à l'optimisation des traitements Spark sur Kubernetes (tuning, configuration, dimensionnement), à l'optimisation de l'orchestration Airflow, à la gestion des catalogues Starburst Accompagner les équipes métiers dans l'utilisation efficace et sécurisée des plateformes Contribuer à la documentation et à l'amélioration continue de l'écosystème d'exploitation
Freelance

Mission freelance
Développeur Back-End Python Senior (H/F)

Freelance.com
Publiée le
Ansible
Apache Airflow
CI/CD

1 an
520-580 €
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme technologique stratégique, nous recherchons un développeur back-end Python expérimenté pour intervenir sur une application de traitement et d’analyse d’images satellites. Vous rejoindrez une équipe de développement déjà en place afin de contribuer à l’évolution fonctionnelle et technique d’une solution existante dédiée à la détection d’objets d’intérêt sur des données satellitaires. Votre mission consistera à travailler sur une base de code importante et mature, en participant à l’amélioration continue de l’architecture, des performances et des fonctionnalités. Vous interviendrez notamment sur l’analyse de problématiques complexes, l’optimisation de la gestion des données et la mise en place de solutions robustes permettant d’assurer la fiabilité et la scalabilité de la plateforme.
Freelance

Mission freelance
Data Engineer GCP

Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD

18 mois
450 €
Saint-Ouen-sur-Seine, Île-de-France
Bonjour, Dans le cadre d’un projet stratégique pour notre client, nous recherchons un Data Engineer GCP sénior pour rejoindre les équipes DST DataLab . Contexte de la mission: Vous interviendrez au sein d’une équipe data engagée dans la construction et l’optimisation de chaînes de traitement et d’intégration de données sur l’environnement Google Cloud Platform . La mission s’inscrit dans un contexte de structuration et de fiabilisation des flux de données , avec un fort enjeu autour de la qualité, de la performance et de la gouvernance. Informations pratiques: Localisation : Saint-Ouen-sur-Seine Présence sur site : 2 à 3 jours par semaine (obligatoire) Démarrage : 20 avril 2026 Fin de mission : 31 décembre 2027 TJM maximum : 450 € Missions: Concevoir et développer des pipelines de traitement de données sur GCP Mettre en place et maintenir des chaînes d’intégration et de transformation de données Travailler sur l’optimisation et la structuration des bases de données analytiques Participer aux choix d’architecture et aux bonnes pratiques de développement Garantir la qualité, la performance et la fiabilité des flux de données Collaborer étroitement avec les équipes data, architecture et métiers Stack technique: Compétences requises GCP Dataform (prioritaire) ou DBT BigQuery SQL (maîtrise avancée) Python Apache Airflow CI/CD Google Cloud SQL Google Cloud Run Compétences appréciées: Architecture applicative Expérience autour des APIs, IHM et exposition de données Expérience avec Cloud Run / Cloud SQL ou Kubernetes (JKS) Profil recherché: Data Engineer avec 5 ans d’expérience minimum Solide expérience sur les environnements data cloud Capacité à travailler dans un cadre structuré avec des méthodes de développement rigoureuses Excellentes soft skills : communication, autonomie, esprit d’équipe et sens de l’organisation
Freelance

Mission freelance
Développeur .NET Core H/F

AGH CONSULTING
Publiée le
.NET CORE
Apache Kafka
API REST

6 mois
250-350 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Développeur(se) .Net Core afin d'intervenir sur le développement et l’évolution d’applications basées sur des architectures modernes. À ce titre, vos principales responsabilités seront : Concevoir et développer des microservices backend en .NET Core Définir, développer et maintenir des API REST Assurer une bonne compréhension et gestion des environnements web (serveurs HTTP, flux réseau) Participer aux pratiques DevOps : intégration continue, déploiement et monitoring
Freelance

Mission freelance
Data Engineer

Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API

1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
CDI

Offre d'emploi
Développeur Full-Stack JAVA AWS (FH)

ASTRELYA
Publiée le
Angular
Apache Kafka
Apache Spark

Paris, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Ilest composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Développeur(se) Fullstack Java AWS, vous interviendrez sur des projets innovants, au cœur des enjeux de transformation de nos clients. Vous participerez à la conception, au développement et à l’industrialisation de solutions modernes, robustes et évolutives. Concrètement vous allez : Concevoir et développer des applications Java / Spring Boot performantes. Contribuer au développement front (Angular, React ou Vue.js selon les projets). Participer à la définition des architectures techniques. Travailler en méthodologie agile au sein d’équipes pluridisciplinaires. Collaborer avec nos experts DevOps, Cloud et Data pour industrialiser et optimiser les solutions. Contribuer à l’amélioration de la qualité du code (tests automatisés, revues, bonnes pratiques). Développer en respectant les bonnes pratiques de production logicielle et de CraftsManship. Votre futur environnement technique : Back-end : Java 21, Spring Boot, API REST, microservices Front-end : Angular / React / Vue.js DevOps : CI/CD (GitLab, Jenkins, Azure DevOps…), Docker, Kubernetes Cloud : Azure, AWS ou GCP Modélisation de données : Kafka Qualité : tests unitaires, tests d’intégration, Sonar, automatisation
Freelance

Mission freelance
DevSecOps (H/F)

Insitoo Freelances
Publiée le
Apache Maven
Docker
Jenkins

2 ans
400-600 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un DevSecOps (H/F) à Lyon, France. Contexte : Les missions attendues par le DevSecOps (H/F) : Mettre en place et maintenir les chaînes d'intégration et de déploiement continu (CI/CD) Automatiser les tests (unitaires, d’intégration, de non-régression) dans la chaîne CI Gérer les pipelines de build et de déploiement Piloter la gestion des vulnérabilités (détection, remédiation, suivi) Participer à l'élaboration de l'architecture sécurisée du produit avec les experts cybersécurité Promouvoir les bonnes pratiques de développement sécurisé auprès des équipes Automatiser la gestion des infrastructures via des outils IaC Identifier des leviers d'amélioration sur la rapidité, la qualité ou la stabilité des livraisons Terraform, Gitlab, Docker, Jenkins, Maven Sécurité: Checkmarx SAST, Checkmarx SCA, Checkmarx KICS, AWS Inpector, AWS Security Hub AWS (scanner Prowler, TestSSL) Monitoring : CloudWatch, Synthetics, Grafana Certification AWS SysOps Admin Associate / AWS DevOps Professional / AWS Security Specialty / AWS Cloud Practitioner Foundational demandées Profils lyonnais ou périphérie IMPERATIF Fonctionnement 2 jours non consécutifs et 3 jours de télétravail
Freelance

Mission freelance
Ingénieur Industrialisation Middleware (H/F) - 45

Mindquest
Publiée le
Ansible
Apache Tomcat

3 mois
400-550 €
Orléans, Centre-Val de Loire
Contexte : La Direction des Systèmes d’Information de notre client, recherche, pour son domaine Exploitation – Infrastructure/Middleware, un prestataire capable d’assurer les développements Ansible permettant de réaliser l’administration des infrastructures middleware, ainsi que l’industrialisation et l’automatisation des actions récurrentes sur la plateforme Ansible. Mission - Mise en œuvre, industrialisation et administration des serveurs d’applications (Tomcat, JBoss EAP), - Industrialisation et automatisation des tâches récurrentes via Ansible Automation Platform, - Préconisation et traitement des besoins liés à la supervision et à l’automatisation, - Contrôle et maintien des dispositifs de sauvegardes et de restauration, en garantissant la continuité de service, - Qualification et mise en œuvre des évolutions techniques du périmètre Middleware, - Adaptation et maintien des outils d’exploitation. Liste des tâches et des livrables : - Rédaction, mise à jour et maintien de la documentation (notes, procédures, CR…), - Contrôle de la bonne application des procédures et des règles. *
Freelance
CDI

Offre d'emploi
Développeur backend

Management Square
Publiée le
.NET
Apache Kafka
API REST

6 mois
40k-45k €
350-400 €
Paris, France
Nous sommes à la recherche d'un(e) : Développeur Backend - Développement d’applications APPS (Dashboard ou Selfservice) - Administration et développement : gestion des catalogues, création/modification de workflow, de questionnaires, de groupes, de sujets, de filtres, de vue, écrans conditionnels, erreurs de saisie, brouillon, reportings et indicateurs, etc … - Gestion des Assets - Administration avancée de EasyVista (modules Self Service et Service Manager). -Capacité à gérer et personnaliser l'outil, notamment les catalogues, workflows, questionnaires, groupes, filtres, vues, écrans conditionnels, et reporting.
Freelance

Mission freelance
Data Engineer GCP H/F

LOMEGARD
Publiée le
Ansible
Apache Airflow
Google Cloud Platform (GCP)

6 mois
400-480 €
Île-de-France, France
Dans le cadre d’un accroissement d’activité et afin de renforcer l’équipe Data d’un grand acteur bancaire, notre client recherche un Data Engineer GCP expérimenté. La mission s’inscrit dans un environnement Big Data / Cloud GCP en pleine transformation, avec des enjeux forts autour de l’industrialisation des pipelines, de la qualité de données et de la mise à disposition de datasets fiables pour les équipes métiers et analytiques. La mission est basée en Île-de-France (IDF) avec 2 jours de TT par semaine. Votre rôle consiste à: Mettre en place les chaînes d’ingestion, validation, croisement et enrichissement des données. Alimenter et exploiter le Data Lake GCP (GCS) et produire des agrégats (J/H/M). Développer des pipelines batch & streaming (Spark, Kafka, Scala). Industrialiser les traitements via Airflow / Composer et CI/CD. Mettre à disposition les données (API, fichiers, dashboards). Participer à la mise en production de modèles statistiques. Documenter, corriger les anomalies, assister les équipes d’exploitation. Travailler en mode Agile (Scrum/Kanban) .
CDI
Freelance

Offre d'emploi
Ingénieur Big Data

OBJECTWARE
Publiée le
Apache Spark
Cassandra
CI/CD

3 ans
40k-76k €
400-550 €
Île-de-France, France
Contexte : Intégration d´une équipe de développeurs data (Java, Spark, Spring) dont le rôle est la mise en place de pipelines de données à destination de vues NoSQL (Cassandra, MongoDB, Elasticsearch) Hard skills demandés : Maîtrise Développement Objet Maîtrise d’un langage objet (Java) Maîtrise SQL Framework Spring Plateforme Spark Connaissance des Web Applications & Micro-services Maîtrise DevOps (CICD, Git, Jenkins) Connaissance approfondie des bonnes pratiques de développement et des Design Pattern Connaissance Domaine Cloud Connaissance du Métier Data / Big Data Vernis langage Python Hard skills optionnels : Maitrise de Mongo DB , Cassandra, et Elastic Search Conception asynchrone Connaissance Domaine DataScience Connaissance Domaine Cybersecurité Soft skills : Autonomie Motivation Organisation Humilité Négociation Curiosité Partage Sens du service Pragmatique / Réaliste Mindset Sensibilisé à la Qualité de code Sensibilisé à la vie de Production Expérience demandée : Développement objet en environnement de production Expérience de 5 ans min en développement data Expérience dans un grand groupe (expérience de l’inertie et des contraintes d’un groupe) Expérience sur tout le cycle de vie d’une application (besoin, conception, développement, déploiement, maintenance) Expérience souhaitée en amélioration d’une solution existante (contrainte de SLA, performance, montée en charge, refactoring, voir refonte) Les missions sont : Recueillement du besoin utilisateur/BA, conceptualisation de la solution technique associée et l’implémenter Adoptation d´une approche proactive sur la qualité de code avec une méthodologie TDD Amélioration continue du code existant et revue avec les pairs des évolutions Support et sensibilisation des pairs à la qualité du code, aux bonnes pratiques et outillage améliorant l’expérience de développement Inscription dans une démarche agile avec un rythme de livraison soutenu (1 MEP / mois)
Freelance

Mission freelance
Développeur FullStack Java/ React

OPTIPARK
Publiée le
Apache Kafka
Business Process Model and Notation (BPMN)
Java

1 an
100-360 €
Niort, Nouvelle-Aquitaine
Nous recherchons actuellement une expertise en Développement « Full stack » Java/ React pour l'un de nos clients qui opère dans le secteur Assurance Son rôle consistera à participer activement à la conception et au développement des outils 'Back Office", en étroite collaboration avec l'équipe et le chef de projet. L'activité sera résolument orientée sur la conception et le développement. Des expériences dans les contextes suivants seront appréciées : Implémentation de solutions avec un workflow d’activité BPMN Connaissance ou forte appétence pour les technologies de streaming, notamment KAFKA Environnement conteneurisé (Openshift) Python 3 React 19 Objectifs et livrables Participer à l'étude et à la proposition de solutions techniques ; vous serez force de proposition sur les choix de conceptions et d’algorithmes. Participer aux cérémonies des équipes : PI Planning, chiffrages. Concevoir et paramétrer des solutions pour répondre aux enjeux d’évolution tout en garantissant la stabilité et la performance nécessaire aux équipes en charge d’apporter la valeur métier. Implémenter et tester les fonctionnalités réalisées. Réaliser des revues de code en collaboration avec votre équipe. Participer à la vie du projet au travers de votre intégration au sein de l’équipe. Rédiger la documentation technique nécessaire. Contribuer à l'amélioration continue, par des rétrospectives régulières, une recherche continue de simplification, d'optimisation et d’apport de nouveautés pragmatiques. Apporter la culture de la robustesse et de la performance (méthodes, mesure, améliorations, outils)
Freelance
CDI

Offre d'emploi
Administrateur Expert Zabbix

Lùkla
Publiée le
Apache Maven
CI/CD
DevOps

2 ans
50k-60k €
450-600 €
Guyancourt, Île-de-France
Intégré(e) à un environnement de production de grande envergure (plus de 50 000 serveurs), vous intervenez sur des problématiques critiques de scalabilité, de performance et de robustesse au sein d'un cadre hautement sécurisé. En tant qu'expert référent sur le socle de supervision, vos missions s'articulent autour des axes suivants : Architecture & Design : concevoir et faire évoluer l'architecture des solutions de supervision pour répondre aux enjeux de croissance et de sécurité du groupe. Administration de Niveau 3 : Assurer le maintien en condition opérationnelle (MCO), l'intégration, la corrélation et l'optimisation fine des plateformes. Métrologie & dashboarding : Piloter les sujets liés à la Qualité de Service (QoS) via la mise en place de tableaux de bord avancés. Automatisation & industrialisation : Contribuer à la stratégie DevOps pour automatiser le déploiement et la configuration des outils de monitoring. Expertise technique : Agir en tant que conseil et force de proposition sur les technologies innovantes en matière d'hypervision. Vous évoluerez dans un écosystème à la pointe de l'industrialisation : Supervision : Open Zabbix Métrologie : Grafana, InfluxDB Hypervision : Netcool Operation Insight (NOI) Méthodologie : Culture DevOps, environnements industrialisés et automatisés.
Freelance
CDI

Offre d'emploi
Administrateur Infrastructures HDP/CDP

VISIAN
Publiée le
Apache Airflow
Apache Spark
Hortonworks Data Platform (HDP)

1 an
40k-45k €
400-540 €
Paris, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters. Les consultants retenus auront pour mission : Administration et optimisation de clusters HDP/CDP Installation, configuration et maintenance des clusters Gestion des mises à jour et des patchs de sécurité Surveillance des performances et optimisation des ressources Gestion/administration de clusters Kubernetes Automatisation des déploiements avec Operators Sécurisation et monitoring des environnements conteneurisés Orchestration des workflows avec Apache Airflow Développement et optimisation des DAGs pour la gestion des pipelines de données Gestion des dépendances et optimisation des temps d'exécution Intégration avec les autres outils de l'écosystème Traitement et analyse des données avec Apache Spark Développement et optimisation des jobs Spark (batch et streaming) Gestion des performances et tuning des jobs Intégration avec les systèmes de stockage distribués Optimisation des requêtes et accès aux données avec Starburst Configuration et administration de Starburst Optimisation des requêtes SQL distribuées Sécurisation et gestion des accès aux différentes sources de données
Freelance
CDI

Offre d'emploi
Business Analyst Senior – Dynamics 365 CRM

Exiptel
Publiée le
Administration linux
Administration Windows
Apache Maven

12 mois
40k-50k €
400-500 €
Bois-Colombes, Île-de-France
Langues : Anglais courant obligatoire Disponibilité : ASAP Contexte Dans le cadre d’un projet de digitalisation d’outils internes de gestion contractuelle en assurance-crédit, l’application CRM Dynamics 365 est utilisée pour : La souscription et la gestion contractuelle de plusieurs produits d’assurance-crédit. La digitalisation de nouveaux produits, incluant la configuration de l’application, l’ajout de fonctionnalités et la mise en place de connexions API (Kafka). Le consultant interviendra sur la partie applicative et sur les échanges de données via API, avec une forte dimension technique et fonctionnelle. Objectifs de la prestation Analyser les besoins métiers et en mesurer les impacts sur l’application. Rédiger les solutions à mettre en place sous forme de User Stories . Challenger les demandes métiers et proposer des alternatives adaptées. Garantir la conformité des spécifications technico-fonctionnelles avec l’ensemble du système. Participer aux réunions de coordination, ateliers métiers et comités projet. Identifier les risques et interdépendances. Réaliser les tests fonctionnels, de non-régression et bout-en-bout. Assurer la qualité et la performance des solutions livrées. Communiquer régulièrement avec l’Application Manager sur l’avancement et les risques. Missions principales Analyse fonctionnelle et technique. Rédaction de spécifications et documentation. Développement et intégration de nouvelles fonctionnalités. Tests et validation des solutions. Coordination avec les équipes internes et offshore. Suivi qualité et performance des livrables.
Freelance

Mission freelance
Consultant développement et support ESB Boomi

CAT-AMANIA
Publiée le
Apache Kafka
Boomi
Data integrity

1 an
100-460 €
Lille, Hauts-de-France
Intégrée dans le sous domaine Value Chain engineering Cross, notre équipe Data Exchange est chargée de la gestion des échanges de données. En plus de permettre au SI de communiquer entre les différents domaines de l’entreprise et d’assurer le maintien en conditions opérationnelles de nos plateformes, nous prenons en charge les nouveaux besoins flux et travaillons sur l’optimisation des échange pour répondre techniquement de la manière la plus cohérente aux besoins utilisateurs. nous recherchons un consultant développement et support expérimenté sur notre ESB Boomi. Autonome, rigoureux, organisé, méthodique et aimant travailler en équipe. Vous nous accompagnerez sur : L’analyse et le support (N3) de nos incidents La prise en charge et la réalisation de développements de flux (création, évolution, mapping et configuration de flux) Les tâches d’exploitation sur nos plateformes (arrêts / redémarrage de serveurs, connexions, composants, flux, ..) La participation aux projets techniques L’accompagnement de nos utilisateurs Le suivi de l’activité au travers nos outils de monitoring La rédaction et la mise à jour de nos documentations techniques La participation active à tous les points de stand up et autres La participation au roulement d’astreinte

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

302 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous