Trouvez votre prochaine offre d’emploi ou de mission freelance ELK à Paris

Votre recherche renvoie 18 résultats.
CDI
Freelance

Offre d'emploi
ELK Platform Expertise

MGI Consultants
Publiée le
ELK
Git
Kibana

12 mois
65k-70k €
550-600 €
75001, Paris, Île-de-France
Rejoignez-nous pour une mission chez notre client grand compte du secteur de l’assurance basé à Paris en tant que Consultant ELK Platform Confirmé. Dans le cadre de l'extension actuelle de la couverture de supervision, plusieurs projets d'intégration sont en cours afin de permettre aux différentes entités de bénéficier des fonctionnalités de Logboard qui est une plateforme de supervision des logs basée sur la suite ELK. Dans ce contexte, il est nécessaire de définir la feuille de route stratégique des solutions de supervision et d'accroître les capacités de réalisation et d'étude pour accompagner les initiatives en cours. Nous utilisonsTerraform, Puppet et Git pour les déploiements, les fusions, etc Votre mission repose sur : la mise en œuvre des opérations sur le produit ELK la configuration et administration de la plateforme ELK le développement de scripts de collecte et d'indexation des logs la contribution à l'étude de supervision la maintenance de nos instances ELK (expertise en exploitation Linux) ainsi que l'implémentation de nouveaux périmètres sur cette plateforme qui est déployée dans un environnement Azure. le développement de nouveaux pipelines d'ingestion de logs (Logstash, Filebeat) l'intégration du stockage des logs (Elasticsearch, indexation) la création de tableaux de bord (Kibana) et l'intégration des fonctionnalités d'alerte d'ELK l'implémentation d'OpenTelemetry Informations clés : Démarrage : 1er juillet Lieu : Paris 1er Travail sur site Contrat : CDI ou Freelance Rémunréation : CDI = 65/70 K€ - TJM : 550 / 600 €
Freelance
CDI

Offre d'emploi
Data Ingenieur Python

CHARLI GROUP
Publiée le
Apache Kafka
ELK
Python

3 ans
Paris, France
Ingénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
Freelance
CDI

Offre d'emploi
Expertise Kafka / DATA ENGINEERING

Digistrat consulting
Publiée le
Apache Kafka
ELK

3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Expert kafka 💡Description détaillée Le contexte de la mission : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA 💡Principales technologies utilisées : • Kafka => IMPERATIF • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Freelance

Mission freelance
[LFR] ELK Platform Expertise à Paris - 1505

ISUPPLIER
Publiée le

10 mois
300-640 €
Paris, France
Secteur d'assurance. Description et localisation 1/Context: Logboard is Log monitoring platform based on ELK stack. In current expansion of Monitoring coverage, several onboarding projects are ongoing allowing the Group Entities and internal products to get benefit from Logboard capabilities. We also need to setup the strategic roadmap of Monitoring Solutions within the Group. We need to increase our delivery/Study capacity to cover ongoing initiatives. 2/Services: ****** MANDATORY EXPERTISE TO DEVELOP USE AND IMPLEMENT ELK ****** Delivery of operations on ELK product Configuration and administration of ELK platform Development of log collect and indexation scripts Contribution to Monitoring Study 3/Deliverables: Platform onboarding strategy Platform configuration Platform onboarding scripts Study on end to end observability platform Providing tasks breakdown and estimates for development tasks 4/ Technical: The Service we need correspond to the service of an Ops profile with significant expertise on ELK (Elasticsearch, Logstash, Kibana). The delivery covers the maintenance of our ELK instances (Linux ops expertise), and also the implementation of new scopes on this platform. The platform is deployed in an Azure environment, we use Terraform, Puppet and Git for the deployments, merge etc. That includes: Developing new pipelines of Log ingestion (Logstash, Filebeat) putting into deliverable the storage of logs (Elasticsearsh, indexation) Creating dashboards (Kibana) - putting into deliverable alerting features of ELK OpenTelemetry implementation 5/ Seniority : ?8 Years
Freelance
CDI

Offre d'emploi
Expert ELK

KLETA
Publiée le
DevOps
ELK

3 ans
Paris, France
Dans le cadre d’un programme d’amélioration de l’observabilité, nous recherchons un Expert ELK pour piloter l’évolution et la fiabilisation d’une plateforme de gestion des logs à grande échelle. Vous analyserez les flux existants, identifierez les goulots d’étranglement et proposerez des optimisations en matière d’ingestion, de stockage et de requêtage. Vous guiderez la mise en place de pipelines robustes avec Logstash ou Elastic Agent, en intégrant des mécanismes de parsing, d’enrichissement et de routage adaptés aux besoins métiers et techniques. Vous serez responsable de la structuration des index, de l’implémentation de politiques ILM et de l’optimisation des performances d’Elasticsearch. Vous travaillerez main dans la main avec les équipes DevOps et SRE pour intégrer ELK dans les pratiques d’exploitation et d’analyse post-incident. Vous participerez également à la création de dashboards avancés, à la définition d’alertes intelligentes et à la formation des équipes sur l’usage avancé de Kibana.
Freelance
CDI

Offre d'emploi
Tech Lead DevOps PaaS

KLETA
Publiée le
Ansible
ELK
Kubernetes

3 ans
Paris, France
Missions techniques : Participer à l'évolution du cloud privé OpenStack (RHOSO) Gérer et maintenir le stockage distribué Ceph Piloter les chantiers d'industrialisation IaC (Terraform, Ansible) Concevoir et superviser la mise en place des services managés internes : PostgreSQL as a Service, Elasticsearch as a Service, RabbitMQ, Redis : en pensant cycle de vie, exposition et gouvernance Assurer l'observabilité de toute la chaîne Missions de leadership : Animer et structurer une équipe de 4 ingénieurs aux profils complémentaires Être le référent technique sur les choix d'architecture et les arbitrages build vs buy Cadrer les pratiques communes : documentation, standards IaC, revues techniques Être l'interlocuteur technique de référence pour les équipes internes consommatrices de la plateforme
Freelance

Mission freelance
Expert Dynatrace SaaS / AWS – Observability & Performance

WIKEYS
Publiée le
AWS Cloud
DevOps
Dynatrace

10 mois
400-550 €
Paris, France
Dans le cadre du renforcement de nos capacités en observabilité et monitoring avancé , nous recherchons un Expert Dynatrace capable d’intervenir sur des environnements cloud AWS en mode SaaS . Vous jouerez un rôle clé dans l’optimisation de la performance applicative, la supervision proactive et l’amélioration continue des systèmes. Responsabilités principales Déployer, configurer et administrer Dynatrace (mode SaaS) Mettre en place des stratégies avancées d’ observability (APM, logs, metrics, traces) Assurer le monitoring de systèmes distribués en environnement AWS (microservices, containers, Kubernetes) Analyser les performances applicatives et identifier les bottlenecks Implémenter des dashboards, alerting intelligent et automatisation Collaborer avec les équipes DevOps, Cloud et développement Participer à l’amélioration continue (SRE, performance engineering) Accompagner les équipes sur les bonnes pratiques (coaching / expertise)
Freelance

Mission freelance
Développeur Backend Data – Elasticsearch

Codezys
Publiée le
Elasticsearch
ELK
Grafana

6 mois
Paris, France
Contexte de la mission Au sein de la Direction des Systèmes d'Information (DSI), le service "systèmes connectés" pilote un portefeuille de projets liés à plusieurs applications, dont certaines en phase de BUILD et d'autres en phase de RUN . Dans ce cadre, nous recherchons un profil expérimenté pour assurer la responsabilité technique d’un projet existant. Ce projet, récemment mis en production, vise à fournir des indicateurs via une interface Grafana, permettant un suivi précis des modules de télérelève et de radio-relève. Il comprend notamment une couche d'ingestion qui permet d'enregistrer les données dans une base ElasticSearch, avec un format adapté. L'ingestion est pilotée par du code Java. Les indicateurs ainsi produits permettent au métier de suivre environ 1 million de modules clients, avec des index quotidiens sur une période de 3 ans. La mission principale consiste à : Maintenir l’existant en assurant la stabilité et la performance du système Analyser et résoudre les incidents ainsi que répondre aux questions remontées par le métier, en expliquant et en corrigeant les résultats affichés Ajouter de nouveaux objets en fonction des besoins métiers Le projet "Supervision Télérelève" s’appuie sur un socle technique composé de Java, ELK (ElasticSearch, Logstash, Kibana) et Grafana, visant à fournir une solution de reporting performante pour les experts et les collectivités. Bien que le socle technique soit en place, il nécessite un maintien ainsi que le développement de nouveaux objets. Une collaboration avec d’autres équipes sera nécessaire pour travailler sur des questions d’authentification, en intégrant la solution dans d’autres projets. Par ailleurs, une migration vers Databricks peut être envisagée à moyen terme, ce qui impliquera une adaptation technique future. Le candidat retenu occupera un rôle de TechLead / Développeur : il devra analyser l’existant, assurer le débogage, suivre le backlog, et échanger avec le métier, le Product Owner (PO) et, éventuellement, avec les architectes. En tant que seul acteur technique sur ce projet, il doit faire preuve d'une grande autonomie et d’une capacité à gérer l’ensemble des sujets techniques. Profil recherché : Expérience confirmée en gestion de projets techniques similaires Maîtrise de Java, ELK Stack et Grafana Capacité à analyser, diagnostiquer et corriger les incidents Autonomie et initiative dans la gestion de projet Bonnes qualités de communication pour échanger avec différentes équipes techniques et métiers
Freelance

Mission freelance
SPECIALISTE GOOGLE SECOPS (GOOGLE CHRONICLE)

Groupe Aptenia
Publiée le
Cortex XSOAR
ELK
SecOps

6 mois
300-500 €
Paris, France
🎯𝐓𝐨𝐧 𝐭𝐞𝐫𝐫𝐚𝐢𝐧 𝐝𝐞 𝐣𝐞𝐮 : - Réaliser un état des lieux des Use Cases existants et réévaluer la stratégie de détection actuelle. - Interpréter, modifier, améliorer ou supprimer les règles de détection existantes pour assurer une couverture équivalente ou supérieure. - Développer de nouveaux Use Cases, from scratch si nécessaire. - Participer à l’onboarding des logs, création de parsers, et élaboration des fiches réflexes associées. - Valider les règles et processus pendant le build. - Contribuer à l’automatisation via SecOps SOAR et autres outils XSOAR (Palo Alto). - Apporter un soutien ponctuel à l’équipe dans la résolution d’incidents. - Effectuer une veille technique régulière pour suivre les évolutions de Google SecOps et des outils associés.
Freelance
CDI

Offre d'emploi
Expert Dynatrace - Monitoring et Observabilité

VISIAN
Publiée le
Dynatrace
ELK

1 an
Paris, France
Contexte Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre des équipes quant à l'utilisation de l'outil Dynatrace et log as a service (ELK) . Ce rôle d'expertise Dynatrace vise à l'assurance du maintien en condition opérationnelle et l'évolution du monitoring des applications de Prod et Non Prod. Missions Amélioration et optimisation de l'ensemble des composants du monitoring des applications Développement et enrichissement de l'observabilité as code (intégration des pipelines CI/CD) Contribution à l'automatisation, au codage, à l'analyse de performance et à la conception d'applications complexes Gestion de l'onboarding des applications sur la plateforme en respectant les standards Assurance de la supervision et de la santé globale des applications en production (latence, disponibilité, monitoring) Apport du conseil et du support technique aux Tribes Animation des ateliers, challenger les équipes et être force de proposition Participation active à la communauté Dynatrace
Freelance
CDI

Offre d'emploi
📩 Tech Lead / Développeur Java – Data & ELK (Grafana)

Gentis Recruitment SAS
Publiée le
Azure DevOps
Big Data
Databricks

6 mois
40k-45k €
300-400 €
Paris, France
Contexte Dans le cadre des activités de la DSI, au sein du service Systèmes Connectés, notre client pilote plusieurs applications en BUILD et en RUN liées à la gestion et à l’exploitation de données à grande échelle. Nous recherchons un Tech Lead / Développeur expérimenté pour prendre en charge un projet récemment mis en production, permettant de restituer des indicateurs métier via Grafana, alimentés par une stack Java / ELK. Missions principales Prendre en main un projet existant (RUN + évolutions) Assurer la maintenance corrective et évolutive Analyser et résoudre les incidents remontés par les équipes métier Comprendre et corriger les écarts sur les indicateurs affichés Développer de nouveaux objets et indicateurs Piloter techniquement le projet (rôle de référent unique) Suivre le backlog et collaborer avec PO, métier et architectes Participer aux réflexions d’évolution (notamment migration potentielle vers Databricks) Environnement technique Backend / Ingestion : Java Data / Monitoring : ElasticSearch, ELK, Grafana Infra / Cloud : Azure (souhaité) Outils : Azure DevOps Auth (optionnel) : Keycloak Data (optionnel) : Databricks, SQL Server Langages complémentaires (nice to have) : C# Compétences attenduesIndispensables Très bonne maîtrise de ElasticSearch et de la stack ELK Solide expérience en Java Expérience sur des volumétries de données importantes Maîtrise de Grafana Capacité à écrire des requêtes de transformation/exploitation de données (Elastic) Expérience en debug / analyse d’incidents Bonne maîtrise d’Azure DevOps Appréciées Databricks Azure SQL Server Keycloak C# Soft skills Excellente communication avec les équipes métier Forte autonomie (poste en solo sur le projet) Capacité d’analyse et de résolution de problèmes Prise de recul et vision technique
Freelance
CDI

Offre d'emploi
Chef de projet

VISIAN
Publiée le
ELK
Java
JIRA

1 an
40k-47k €
290-460 €
Paris, France
Contexte Deux applications entrent dans le périmètre : Une plateforme d’échange de données , assurant l’interconnexion entre des portails déclaratifs d’entreprises et des organismes partenaires. Elle est constituée : de services exposés (API / webservices) permettant les échanges de fichiers, de traitements batch pour la gestion des statistiques et de la supervision, d’une interface utilisateur permettant la consultation des données, d’une base de données alimentée en continu et exploitée via des outils de type moteur de recherche / observabilité. Une plateforme d’échange inter-organismes , permettant la transmission de données nécessaires à des traitements réglementaires. Il s’agit d’une application en cours de mise en place. Objectif de la mission : Renforcer la capacité de pilotage de projets technologiques dans le cadre de la modernisation du système d’information. Le rôle consiste à définir, mettre en œuvre et piloter des projets afin de garantir un résultat conforme aux exigences métiers en termes de qualité, performance, coûts, délais et sécurité. Une intervention en appui de type PMO est également attendue, incluant coordination, suivi et production d’indicateurs. Périmètre : Planification Contribution à la construction du portefeuille projets Prise en compte des contraintes (coûts, délais, ressources, compétences) Identification des dépendances Suivi des activités Suivi de l’avancement (qualité, coûts, délais) Vérification du respect des engagements Application des méthodologies et bonnes pratiques Analyse des risques Pilotage Évaluation de la capacité des ressources Optimisation et ajustement des allocations Replanification si nécessaire Budget & reporting Suivi et mise à jour budgétaire Analyse des consommés et du reste à faire Production de reportings et tableaux de bord Gouvernance Animation des instances de pilotage Contribution aux schémas directeurs et feuilles de route Missions spécifiques Pilotage de projets liés à l’obsolescence technique d’une plateforme existante (évolution d’infrastructure et composants) Contribution à la conception et mise en œuvre d’une solution innovante intégrant des technologies d’intelligence artificielle sur une nouvelle plateforme Coordination des équipes techniques et métiers Animation des comités de pilotage Contribution aux choix techniques et aux spécifications Veille technologique, notamment sur les usages de l’IA Livrables Schéma directeur Feuilles de route Tableaux de bord et indicateurs Planning détaillé Plan de charge et allocation des ressources Analyse des risques Comptes rendus de gouvernance Documentation technique et fonctionnelle Solution IA opérationnelle et documentée
Freelance
CDI

Offre d'emploi
Consultant Observabilité

KLETA
Publiée le
Dynatrace
ELK
Grafana

3 ans
Paris, France
Dans le cadre d’un programme de transformation technologique, nous recherchons un Consultant Observabilité pour définir et industrialiser une stratégie d’observabilité cohérente sur des environnements complexes et critiques. Vous analyserez les dispositifs existants, identifierez les lacunes de visibilité et proposerez une trajectoire cible alignée avec les trois piliers de l’observabilité (logs, métriques, traces). Vous guiderez la mise en place de solutions modernes basées sur OpenTelemetry, Prometheus, Grafana, ELK ou équivalents, en veillant à leur intégration dans les pipelines CI/CD et les pratiques DevOps. Vous serez responsable de la définition des SLO, SLA et SLI, de la structuration de dashboards exploitables et de la mise en place d’alerting pertinent et actionnable. Vous travaillerez étroitement avec les équipes Cloud, DevOps et SRE pour améliorer la fiabilité, la détectabilité et la résilience des systèmes. Vous aurez également un rôle clé dans l’animation d’ateliers, la formalisation de standards et l’accompagnement des équipes dans l’adoption des meilleures pratiques d’observabilité.
Freelance
CDI

Offre d'emploi
Expert OpenTelemetry

KLETA
Publiée le
ELK
Grafana
Kubernetes

3 ans
Paris, France
Dans le cadre d’un programme de transformation technologique, nous recherchons un Expert OpenTelemetry pour concevoir, structurer et industrialiser l’instrumentation des systèmes distribués et cloud native. Vous analyserez les dispositifs existants, identifierez les zones d’angle mort et proposerez une trajectoire cible basée sur une collecte unifiée de traces, métriques et logs. Vous guiderez la mise en place d’OpenTelemetry sur des environnements Kubernetes, microservices et plateformes cloud, en définissant des standards d’instrumentation, des conventions de nommage et des bonnes pratiques de corrélation des signaux. Vous serez responsable de l’intégration d’OpenTelemetry avec des backends d’observabilité (Prometheus, Grafana, Elastic, Dynatrace ou équivalents) et de l’optimisation des pipelines de télémétrie. Vous travaillerez main dans la main avec les équipes DevOps, SRE et applicatives pour intégrer l’observabilité dès la conception et dans les pipelines CI/CD. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’instrumentation et l’accompagnement des équipes dans l’adoption d’OpenTelemetry comme standard transverse.
Freelance

Mission freelance
Développeur d'appli. à forte connotation Data

Codezys
Publiée le
API
Azure
Azure DevOps Services

12 mois
360-410 €
Paris, France
Contexte de la mission Au sein de la Direction des Systèmes d'Information (DSI), le service « systèmes connectés » gère un portefeuille de projets couvrant plusieurs applications, dont certaines sont en phase de développement ( BUILD ) et d'autres en exploitation ( RUN ). Nous recherchons un profil expérimenté pour assurer la responsabilité d’un projet existant. Ce projet, récemment mis en production, a pour objectif de fournir des indicateurs via une interface Grafana. Le système comprend une couche « d’ingestion » qui enregistre les données dans une base ElasticSearch, dans un format adapté. Cette étape d’ingestion est orchestrée avec du code Java. Les indicateurs produits permettent au métier de suivre les modules de télérelève et de radio-relevé client (plus d’un million de modules, avec un index quotidien sur trois ans). La mission comprend notamment : La maintenance de l’existant L’analyse des incidents et des questions remontés par le métier afin d’expliquer ou corriger les résultats affichés L’ajout de nouveaux objets métier selon les besoins. Objectifs et livrables Le candidat retenu devra prendre en charge les projets suivants : Projet « Supervision Télérelève » : basé sur une architecture technique Java/ELK/Grafana, il vise à fournir une solution de reporting des données de télérelève aux experts et aux collectivités. Le socle technique étant déjà en place, il sera nécessaire de le maintenir, le faire évoluer en intégrant de nouveaux objets, et de collaborer avec d’autres équipes sur la mise en œuvre de fonctionnalités d’authentification, afin d’intégrer la solution dans d’autres projets. Il est également possible qu’à moyen terme, une migration vers Databricks soit envisagée. Le rôle du consultant sera celui de TechLead et de développeur : il analysera l’existant, assurera des activités de débogage, suivra le backlog et communiquera régulièrement avec le métier, le Product Owner (PO) et, si nécessaire, avec les architectes. En tant que seul acteur technique sur ce projet, le consultant devra faire preuve d’une grande autonomie pour la gestion des sujets techniques.
Freelance

Mission freelance
Architecte Data DevOps / FinOps (Expertise GCP)

Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD

6 mois
650 €
Paris, France
Contexte de la mission Au sein d'une grande entité du secteur de l'énergie, vous interviendrez en tant qu' Architecte Data transverse avec une double expertise DevOps et FinOps . Votre rôle sera stratégique : concevoir des architectures cloud robustes, définir les standards d'urbanisation (Data, IA, MLOps) et piloter l'optimisation des coûts dans un environnement hybride et multi-cloud, avec un focus majeur sur GCP . Missions principales 1. Architecture & Urbanisation Définir les standards d'architecture et les règles d'urbanisation pour les domaines Data, IA, DevOps et MLOps. Concevoir et mettre en œuvre des architectures de données cloud performantes. Rédiger, maintenir et diffuser les bonnes pratiques (Data, On-Premise, Cloud et DevOps). Assurer la gouvernance des modèles et encadrer l'usage des LLM tout en gérant les risques éthiques et réglementaires. 2. Expertise DevOps & MLOps Industrialiser les pipelines de données et de Machine Learning (ML Pipelines). Superviser l'orchestration et la conteneurisation des services. Garantir la mise en œuvre des principes CI/CD et GitOps dans des environnements complexes. 3. Stratégie FinOps & Performance Intégrer les principes FinOps dès la conception (Architecture by design). Optimiser spécifiquement les coûts liés au Cloud et aux ressources GPU (Plan FinOps dédié à l'IA). Définir des modèles de refacturation interne et préconiser les outils de suivi de performance pour superviser les pipelines. Expertise Technique Requise Cloud : Maîtrise avancée de Google Cloud Platform (BigQuery, Composer, Airflow, DataProc, DataFlow). Infrastructure as Code & CI/CD : Terraform, Ansible, Git, Jenkins, GitLab-CI, GitOps, Helm. Conteneurisation : Docker, Kubernetes. Observabilité : ELK, Grafana, Prometheus, Google Monitoring. Environnement : Expérience significative en environnements hybrides (On-premise / Cloud). Modalités pratiques Lieu : Paris – Présence sur site obligatoire 2 à 3 jours/semaine . Date de démarrage : 01/06/2026. Date de fin : 31/12/2026 (Visibilité long terme). Prix d’achat max : 650 € HT / jour.
18 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous