Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Lyon

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 88 résultats.
Freelance
CDI

Offre d'emploi
Chef de projet Data (H/F)

CGI
Publiée le
GraphQL
Large Language Model (LLM)
Neo4j

1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre de projets innovants autour de la valorisation de la donnée, nous recherchons un Chef de Projet Data capable de piloter des initiatives basées sur des modèles de données orientés graph (Graph Data Model) , intégrant des technologies comme Neo4j , et potentiellement des briques IA / LLM . L’objectif est de structurer, piloter et sécuriser la delivery de projets data à forte valeur métier. Piloter des projets Data autour de modèles Graph Coordonner les équipes Data (Data Engineers, Data Scientists, Architectes, Dev) Superviser la conception de modèles de données orientés graph Accompagner l’implémentation de solutions type Neo4j Encadrer les phases de cadrage, POC, industrialisation et mise en production Piloter l’intégration éventuelle de briques IA / LLM Assurer la gouvernance des données (qualité, sécurité, conformité) Suivre planning, budget, risques et reporting
CDI

Offre d'emploi
Chef/Directeur de Projet Data (Sénior) - Lyon

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Business Analyst

50k-65k €
Lyon, Auvergne-Rhône-Alpes
Rôle transversal positionné entre les équipes métier, les équipes Data Engineering, les Data Analysts/Modelers et les sponsors projets, vous intervenez sur : Des programmes Data d’envergure (Data Lakehouse, modernisation BI, Data Governance, MDM, Analytics avancés). Des environnements Cloud (Azure, GCP, AWS) et des architectures modernes (Data Mesh, Datavault). Des enjeux de pilotage projet, de cadrage fonctionnel et d’accompagnement à la transformation Data. En tant que Senior (+8 ans), nous attendons de vous : Une grande autonomie et capacité à sécuriser un projet ou un périmètre. Une forte expérience en gestion de projets Data complexes. Une capacité à accompagner les équipes, structurer les pratiques et diffuser la culture Data. Une maîtrise avancée des méthodologies de modélisation (3NF, Étoile/Flocon, Data Mesh…), des pipelines ETL/ELT, et des outils BI.
Freelance

Mission freelance
Senior Data Engineer

Signe +
Publiée le
MySQL

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Concevoir, développer et maintenir des data pipelines et solutions de data warehouse en environnement cloud Mettre en place et industrialiser les processus ETL / ELT et l’orchestration des pipelines en production Traduire les besoins métiers en solutions techniques data robustes en collaboration avec les équipes transverses Définir et appliquer les standards techniques et bonnes pratiques d’ingénierie data Participer à l’amélioration continue des architectures data et des performances des pipelines Expérience requise 6 à 10 ans d’expérience en Data Engineering Expérience confirmée en implémentation de pipelines data et solutions de data warehousing cloud Expérience en modélisation de données et orchestration de pipelines en environnement production Expérience de travail en équipes cross-fonctionnelles Compétences techniques Maîtrise avancée SQL Plateformes Data Warehouse : Snowflake (préféré) ETL / ELT : IICS ou équivalent Transformation data : dbt (préféré) Python pour traitement de données Cloud : AWS (préféré) Orchestration : Airflow (préféré) CI/CD : GitHub Actions Versioning : Git Infrastructure as Code : Terraform Mise en place de standards d’ingénierie et patterns techniques Soft skills Esprit collaboratif et orientation solution Autonomie et proactivité Communication efficace avec équipes techniques et métiers Formation Bachelor minimum (Master apprécié) en informatique ou domaine équivalent Langue Anglais obligatoire
Freelance

Mission freelance
Expert Data Privacy (RGPD)

Codezys
Publiée le
Audit
Data privacy
RGPD

12 mois
Lyon, Auvergne-Rhône-Alpes
Objet de la recherche Recrutement d’un expert (+15 ans d’expérience) pour un audit interne sur la gestion des données dans le traitement des réclamations techniques (niveaux 2 & 3). Contextes et enjeux Problème identifié : Perte de contrôle sur les données entre les applications, due à l’absence d’un processus cohérent de suppression et gestion des données personnelles (VILINK, SAP, CRM 360, Coltshare, etc.). Objectifs : Améliorer la gouvernance Data Privacy, la sécurité, la traçabilité, et assurer la conformité réglementaire (ex. HDS, C5). Rôle et responsabilités du prestataire Diagnostic & consolidation des flux de données : cartographie, identification des zones de superflu, stockage et réplication non souhaités. Définition et déploiement des mesures correctives : création d’un SOP pour la suppression cohérente, nettoyage des données existantes, définition des rétentions conformes. Coordination interéquipes : liaison avec IT, Data Privacy, opérations commerciales, BDR, GCS, suivi du plan de remédiation, cohérence dans les contributions. Contribution transversale : supervision du DPIA, déploiement de mesures de sécurité, gestion des risques, support méthodologique en Data Privacy. Livrables attendus Procédure de “Data Deletion Consistent Process Across Applications”. Cartographie validée des flux de données patient. Plan de remédiation consolidé, mis à jour et exécuté. Reporting hebdomadaire et suivi pour les managers GCS. Documents pour révision DPIA et gouvernance post-projet. Tous les livrables mentionnés dans le rapport d’audit partagé au démarrage.
Freelance

Mission freelance
Développeur(euse) Big Data

CAT-AMANIA
Publiée le
Apache Spark
Hadoop
Python

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Description du poste : Dans le cadre de l'activité Big Data de notre client, nous recherchons un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans nos actions sur notre plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs.
Freelance

Mission freelance
Backend developer

Codezys
Publiée le
API
Azure
Azure Data Factory

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Vous intégrerez une équipe IT internationale composée d’architectes, de développeurs backend et frontend, d’ingénieurs QA, ainsi que de spécialistes en run et monitoring. Ensemble, nous concevons, développons et exploitons notre plateforme IoT cloud, déployée sur nos sites en France et en Europe. En tant que Backend Developer, vous rejoindrez l’équipe backend située dans la région lyonnaise. Cette équipe allie une solide expérience, une forte culture du partage des connaissances et une curiosité technologique. Vous contribuerez au développement de nouvelles fonctionnalités, à l’évolution continue de la plateforme, ainsi qu’à la fiabilité à long terme de nos services IoT. Objectifs et livrables Développement de services backend et d’API en C# / .NET, en respectant les bonnes pratiques et les standards de qualité. Participation aux rituels d’équipe tels que les estimations, les revues de sprint, les tests transverses et les rétrospectives. Amélioration continue de notre plateforme cloud Azure : mise à jour des frameworks, gestion des composants en fin de vie, conformité sécurité. Soutien aux méthodes de travail DevOps, Cloud et Agile. Exploration technologique pour identifier et intégrer les innovations pertinentes en collaboration avec les architectes, dans notre plateforme IoT. Autonomie dans l'exécution des tâches, tout en collaborant étroitement avec l’équipe pour affiner les besoins et proposer des solutions adaptées.
Freelance

Mission freelance
recherche profil CP/Data analyste BI - Ecommerce

Mon Consultant Indépendant
Publiée le
Data analysis

3 mois
500-550 €
Lyon, Auvergne-Rhône-Alpes
Je suis à la recherche de ce profil pour l'un de nos clients en région lyonnaise : Je suis en recherche d’une prestation sur un profil confirmé de Chef de projet/Business Analyst Data BI . Pour rappel, notre équipe Data Consumer Solutions travaille principalement sur des sujets marketing/CRM/e-commerce/services liés à nos données Consommateurs (collectés à travers des touchpoints digitaux : Apps, Site Webs, Produits connectés, Advertising platforms…). Pour cet appel à compétence nous recherchons un profil connaissant le e-commerce. Ce profil rejoindrait une équipe projet mixte composée d'experts data IT et des équipes e-commerce (D2C) collaborant sur la collecte et l’exploitation de données de nos sites web : Ventes & Tracking Analytics Il aurait un focus fort sur la partie collecte de données depuis des sources tierces. Les tâches principales seront : · Analyser les besoins exprimés par le Business Owner pour identifier les champs (API/Autres sources) à récupérer pour y répondre et proposer des solutions en collaboration avec nos experts Data. · Coordonner les tâches de setup d’outil de collecte et de build de nos Data Engineers / Experts Dataviz pour récupérer la donnée dans notre Datalake, la préparer et la transformer afin d’alimenter nos Dashboards Qlik ou des Datasets mis à disposition de Data Analysts. · Faire des analyses/requêtes Data pour tester et valider les solutions mises en place, ou répondre à des questions métiers. · Rédiger la documentation technico-fonctionnelle au fil de l'avancement du projet pour en assurer la continuité et l'évolutivité · Former et accompagner les key users sur les applications. Les compétences clés recherchées sont : · Business Analyse (expertise fonctionnelle) · Gestion de projet en environnement agile · Expérience en projets Data/BI sur des périmètres liés au e-commerce/D2C (ce critère sera clé pour notre choix, afin de permettre une montée en puissance rapide sur ce périmètre métier) · Anglais car les solutions sont déployées à l’international et les sources de données sont worldwide La mission serait de plusieurs mois (avec une fin liée à un retour de congé maternité) et en temps plein, avec chaque semaine 2 jours home office et 3 jours dans nos locaux (accessible en TCL). Notre objectif est d’avoir sélectionné et positionné une personne sur ce poste dès que possible en mars.
Freelance

Mission freelance
Architecte Data - Lyon

Cherry Pick
Publiée le
Apache Kafka
Apache Spark
Architecture

6 mois
700-870 €
Lyon, Auvergne-Rhône-Alpes
Architecte Data / Cloud Senior (Expert)🎯 Contexte & Enjeux Dans le cadre de la transformation de notre client (Secteur d' Assurance) vers un Système d’Information Data Centric , nous recherchons un(e) Architecte Data / Cloud Senior capable d’accompagner la modernisation de notre infrastructure Data On-Premise et Cloud. Cette transformation stratégique vise à bâtir un SI : Agile Évolutif Résilient Orienté données Aligné avec nos enjeux long terme L’expert(e) interviendra en transverse auprès des équipes MOA, Techlead, Développeurs et DBA afin de garantir une intégration fluide des architectures Data modernes. 🎯 Objectifs de la mission Évaluer l’architecture existante et recommander les meilleures pratiques Data / Cloud Concevoir et mettre en œuvre une architecture Data Centric robuste et scalable Définir et implémenter les patterns Data (Batch, Streaming, Event-driven, Microservices data, etc.) Assurer l’intégration cohérente des environnements On-Premise et Cloud Accompagner les équipes internes (MOA, Tech, DBA) Garantir la sécurité, la gouvernance et la performance des données Assurer le transfert de compétences Produire une documentation complète (HLD, LLD, DAT, schémas d’architecture) 📦 Livrables attendus Dossier d’architecture cible (HLD/LLD) Schémas d’urbanisation Data Blueprint Data/Cloud (multi-cloud / hybrid) Recommandations techniques formalisées Plan de migration On-Premise → Cloud Documentation des pipelines Data Guide de bonnes pratiques Support aux équipes techniques Plan de gouvernance et sécurité des données 🛠 Responsabilités principales Définir l’architecture Data (Batch & Streaming) Mettre en œuvre des pipelines temps réel (Kafka, Spark Streaming, Beam) Concevoir des architectures multi-cloud (AWS, GCP, Azure, Oracle Cloud) Intégrer les solutions NoSQL (CouchDB, MongoDB) Concevoir des architectures sécurisées (Keycloak, IAM, RBAC) Superviser les choix techniques liés aux bases Oracle Accompagner l’industrialisation sous OpenShift Garantir la performance, la scalabilité et la résilience 👤 PROFIL RECHERCHÉ🎓 Formation Bac+5 (Ingénieur / Master en Informatique / Data / Cloud) Minimum 8 à 10 ans d’expérience dont plusieurs années en architecture Data
Freelance
CDI

Offre d'emploi
Business Analyst / Data Analyst

R&S TELECOM
Publiée le
Apache Airflow
Azure Logic Apps
ETL (Extract-transform-load)

1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Pour l’un de nos clients, cette mission consistera par l’accompagnement du lancement d’un projet interne stratégique destiné à doter ses équipes commerciales d’un outil de pilotage centralisé axé sur la donnée. Tâches à réaliser : Recueillir et formaliser les besoins métier des équipes Sales / Sales Ops (indicateurs, rapports, cas d’usage). Analyser les sources de données existantes (dont Salesforce) et comprendre le business data model actuel. Concevoir et faire évoluer le modèle de données dans une logique Medallion / Canonical / Shared Data Model. Cadrer et spécifier les pipelines de données (ETL / workflows) avec les outils en place : Fabric Pipeline, dbt, Alteryx, Airflow, LogicApps, PowerAutomate, etc. Définir les règles de transformation et de qualité de données (nettoyage, harmonisation, gestion des doublons, référentiels). Mettre en place et documenter l’historisation et la data lineage de bout en bout (de la source jusqu’aux vues analytiques). Rédiger la documentation fonctionnelle et le dictionnaire de données pour les équipes data et métiers. Jouer le rôle de “go-to person” / référent data pour l’équipe projet, en répondant aux questions et en arbitrant les choix fonctionnels. Accompagner les utilisateurs (explication des KPIs, démonstration des vues, recueil de feedbacks) et proposer des améliorations continues.
Freelance

Mission freelance
Data Engineer Azure Databricks

CHOURAK CONSULTING
Publiée le
Azure
Azure DevOps
Azure Synapse

3 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Engineer Azure/Databricks expérimenté pour renforcer une équipe Data internationale, dans un environnement technique moderne et structuré. 🎯 Contexte de la mission : La plateforme Data est actuellement basée sur Azure Synapse (Dedicated SQL Pool) , Databricks et dbt , avec des processus CI/CD gérés via Azure DevOps . La mission s’inscrit dans une logique d’industrialisation, de bonnes pratiques et de qualité documentaire. Le client est train d'abandonner Synapse pour migrer sur Databricks. ⚙️ Vos missions principales : Concevoir, développer et maintenir des pipelines de données performants sur Azure. Intervenir sur les traitements Data Engineering en SQL et Python . Contribuer à la modélisation et à l’exposition des données pour Power BI (DAX). Appliquer et promouvoir les bonnes pratiques Data Engineering (qualité, performance, sécurité). Documenter les architectures, flux et développements. Collaborer avec une équipe internationale (échanges majoritairement en anglais).
CDI

Offre d'emploi
Développeur Big Data Expérimenté (H/F)

CITECH
Publiée le
Cloudera
Git
Hadoop

50k-60k €
Lyon, Auvergne-Rhône-Alpes
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet innovant, nous avons LE poste pour vous ! Nous recherchons en effet un(e) Développeur Big Data Expérimenté (H/F) 🚀 ☘️ Votre mission est pour un client connu du secteur de la retraite et prévoyance. L’objectif de la mission est dans le cadre de la réalisation et la maintenance de développements nécessaires à l'alimentation d’une plateforme, ainsi que la mise en place d'extractions de données et l'accompagnement des utilisateurs finaux. Description du poste 👉 Vous aurez les missions suivantes : 👈 🔸 Développement et maintenance : Assurer l'alimentation du Datalake et faire évoluer les flux en fonction des besoins métiers. 🔸 Conception et architecture : Mettre en place des extractions de données et contribuer à garantir la tenue de la plateforme en environnement opérationnel. 🔸 Support et expertise : Assurer le support de niveau 2, apporter une expertise technique sur l'écosystème Hadoop et réaliser des revues de code. 🔸 Coordination : Collaborer avec la Direction Technique Informatique et la Gouvernance de la Donnée pour le respect et l'évolution des modèles référencés. 🔸 Documentation : Rédiger la documentation technique (spécifications, dossiers d'exploitation, manuels d'installation) et les bilans de tests.
Freelance

Mission freelance
Data Engineer Snowflake - Lyon

Net technologie
Publiée le
Snowflake

3 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de la migration de BW vers Snowflake, les deux profils seront en charge de la migration des données SAP & BW vers Snowflake au sein d’une équipe d’une dizaine de personnes pour notre client. Tâches à réaliser : Concevoir et développer les pipelines d’ingestion et de transformation des données depuis SAP et BW vers la plateforme Snowflake. · Assurer la qualité, la cohérence et la sécurité des données tout au long du processus de migration. · Collaborer étroitement avec les équipes fonctionnelles et techniques pour comprendre les besoins métiers et adapter les solutions data. · Optimiser les performances des flux de données et veillez à leur scalabilité dans l’environnement Snowflake. · Participer à la documentation technique et à la mise en place des bonnes pratiques autour des données. · Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration.
Freelance

Mission freelance
Data Engineer Snowflake (Migration SAP / BW)

VISIAN
Publiée le
Snowflake

3 ans
400-550 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre d’un programme stratégique de modernisation du système décisionnel, une organisation internationale engage la migration de ses données depuis un environnement SAP BW vers une plateforme Cloud Data moderne basée sur Snowflake. Vous intégrerez une équipe Data d’une dizaine de personnes dédiée à la migration, à l’industrialisation des flux et à la mise en place d’une architecture data scalable, performante et sécurisée. Missions Concevoir et développer des pipelines d’ingestion et de transformation de données depuis SAP et SAP BW vers Snowflake Garantir la qualité, la cohérence et la sécurité des données durant tout le processus de migration Collaborer avec les équipes métiers et IT afin de comprendre les besoins fonctionnels et adapter les solutions data Optimiser les performances des flux et assurer leur scalabilité dans l’environnement Snowflake Participer à la documentation technique et à la mise en place des bonnes pratiques Data Engineering Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration Participer aux échanges techniques au sein de l’équipe projet Livrables attendus Pipelines de données fiables et industrialisés Modèles de transformation optimisés Documentation technique des flux et architectures Recommandations d’optimisation et d’amélioration continue Environnement technique Obligatoire : Snowflake dbt Apache Airflow SQL Python SMP Apprécié : SAP SAP BW
Freelance
CDI

Offre d'emploi
Data Engineer Senior – Plateforme Data Cloud

VISIAN
Publiée le
AWS Cloud
Databricks
PySpark

3 ans
40k-50k €
500-540 €
Lyon, Auvergne-Rhône-Alpes
Data Engineer Senior – Plateforme Data Cloud (H/F) Lyon – Mission longue durée – Temps plein Nous recherchons un Data Engineer senior pour intervenir sur une plateforme data stratégique au sein d’un grand environnement industriel en transformation. La mission s’inscrit dans une équipe dédiée à l’industrialisation et à la performance des pipelines data, sur une architecture cloud moderne à forte volumétrie. Missions • Concevoir et optimiser des pipelines d’ingestion et de transformation de données • Garantir la performance, la fiabilité et la scalabilité de la plateforme • Mettre en place des mécanismes de contrôle qualité des données • Automatiser et superviser les traitements data • Participer à la gouvernance et au cycle de vie de la donnée • Contribuer à l’optimisation des infrastructures cloud • Supporter les utilisateurs de la plateforme • Participer à la veille technologique Environnement technique Databricks sur AWS PySpark, Python, SQL avancé Architecture Data Lake et pipelines industriels Outils DevOps / DataOps (Git, CI/CD, ticketing) Méthodologie Agile à l’échelle (SAFe) Profil recherché Minimum 5 ans d’expérience en data engineering Expertise Databricks, AWS et PySpark Expérience en industrialisation de pipelines data Rigueur technique et autonomie Bon esprit d’équipe Anglais professionnel Connaissance du secteur industriel ou énergie appréciée. Conditions Mission longue durée avec visibilité Projet à fort impact Équipe technique experte Environnement cloud avancé
Freelance

Mission freelance
Chef de Projet Data Migration Workday

SAP-HIRE
Publiée le
Workday

10 mois
500-610 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour un de nos clients lyonnais, pour un projet de migration sur Workday, un Chef de Projet. En tant que Chef de projet vous serez en charge de piloter la migration ainsi que la partie architecture solution. Par ailleurs, vous aurez pour rôle d’orchestrer le plan de bascule. Le démarrage de la mission est prévue dès que possible et ce jusqu'à fin 12/2026. La connaissance de Workday Finance est impérative, ainsi qu'un bon niveau d'anglais dans un contexte international. Workday Finance (4/5 ans d'expérience minimum) Data migration (2/3 ans d'expérience minimum) Chef de Projet (3 ans d'expérience minimum)
Freelance

Mission freelance
Data Engineer

CAT-AMANIA
Publiée le
Data analysis
Large Language Model (LLM)
OCR (Optical Character Recognition)

3 ans
Lyon, Auvergne-Rhône-Alpes
La l'équipe RAD-LAD (Reconnaissance Automatique de Documents et Lecture Automatique de Documents) a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. L'équipe souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment). * Tester différents LLM peu importe le provider (aws, gcp, azure) * Préparer les jeux de données * Définir les conditions de succès et d’échec et paramétrer les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendus * Faire des développements sur les produits de la squaq (Java / Python)

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

88 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lyon, Auvergne-Rhône-Alpes
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous