Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 696 résultats.
Freelance
CDI

Offre d'emploi
Expertise Spark Data

NEO SOFT SERVICES
Publiée le
Apache Spark

20 jours
35000, Rennes, Bretagne
Dans le cadre d’un besoin interne, nous recherchons un Expert Data Engineer spécialisé Spark. La mission porte sur une solution de traitement de données dédiée à des usages de statistiques et de Business Intelligence. Cette solution repose sur une architecture intégrant Kafka Connect, Spark, Kubernetes et MongoDB, déployée sur une infrastructure OVH. Volumétrie cible : 350 bases de données 5 000 requêtes par seconde 1 To de données par an Tâches à réaliser : Réalisation d’une analyse technique et d’un état des lieux de l’existant Élaboration de recommandations d’amélioration : Optimisation du streaming Spark, notamment sur les aspects temps réel et dimensionnement de l’infrastructure Recommandations sur le dimensionnement de l’infrastructure pour le traitement en temps réel Optimisation de MongoDB, incluant la structuration et la standardisation des modèles de données Rédaction d’un document d’architecture cible accompagné des préconisations associées
Freelance

Mission freelance
Data Engineer - Lille

ICSIS
Publiée le
Apache Kafka
CI/CD
DBT

2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Freelance

Mission freelance
Data engineer sénior (H/F)

HOXTON PARTNERS
Publiée le
Azure
Python

6 mois
550-600 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre de l’évolution de sa plateforme data, une organisation recherche un Data Engineer Senior afin d’intervenir à la fois sur des sujets d’ingénierie et de structuration d’architecture. Le poste s’inscrit dans un environnement technique exigeant nécessitant une forte autonomie et une vision globale des flux de données. Missions Concevoir et mettre en œuvre des pipelines de données robustes et scalables Participer à la définition et à l’évolution de l’architecture data Développer et optimiser les traitements de données (Python, SQL) Assurer la qualité, la performance et la fiabilité des flux de données Collaborer avec les équipes techniques pour structurer les bonnes pratiques data
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Collaborer étroitement avec le Business / PO / BA afin d’identifier et transcrire les besoins métiers en KPI (Valoriser les données / aider à la décision en menant des analyses d’indicateurs et des restitutions visuelles) Analyse exploratoire de données en vu d'aide à la décision Business : calcul, production, explication d'indicateurs/KPI bancaire Production de Data Viz en réponse à besoin métier de pilotage d'activités bancaire.
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

40k-49k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Collaborer étroitement avec le Business / PO / BA afin d’identifier et transcrire les besoins métiers en KPI (Valoriser les données / aider à la décision en menant des analyses d’indicateurs et des restitutions visuelles) Analyse exploratoire de données en vu d'aide à la décision Business : calcul, production, explication d'indicateurs/KPI bancaire Production de Data Viz en réponse à besoin métier de pilotage d'activités bancaire.
Freelance

Mission freelance
Data Manager – Urbanisation et Gouvernance des Données - Marketing Digital

ARTESIA IT
Publiée le
Data governance

1 an
600-700 €
Paris, France
Nous recherchons un Data Manager expérimenté pour un rôle transverse, axé sur l’urbanisation des données, l’architecture fonctionnelle et la gouvernance des données. L’objectif : garantir la cohérence, l’interopérabilité et la fiabilité à long terme des actifs data à travers les différents domaines de l’entreprise, avec une forte orientation marketing digital. 🔹 Missions principales Architecture fonctionnelle & modélisation des données : définir et maintenir des modèles de données cohérents et alignés avec la stratégie métier. Urbanisation des données : organiser l’ownership par domaine, valoriser les actifs data et définir la vision cible des données. Qualité & gouvernance des données : mettre en place et suivre des règles de qualité et de traçabilité (data lineage), en garantissant la conformité et la fiabilité des informations. Collaboration transverse : travailler en mode Agile avec les équipes métiers et IT, en accompagnant le changement de manière constructive. Conseil stratégique : clarifier des sujets complexes, favoriser l’alignement inter-équipes et apporter une vision métier combinée à une expertise technique pointue. 🔹 Profil recherché Minimum 10 ans d’expérience en Data Management , avec expertise en modélisation de données et en pratiques de gouvernance. Maîtrise de la normalisation/dénormalisation , du SQL et des concepts de data lineage . Solide compréhension des règles fonctionnelles complexes , idéalement dans le domaine du marketing digital. Excellente maîtrise du français et de l’anglais . Profil proactif, autonome et doté d’excellentes compétences relationnelles pour faciliter l’adhésion et la collaboration. 🔹 Ce que nous offrons Un rôle stratégique et transverse au sein d’une organisation innovante. La possibilité de travailler sur des projets à forte valeur ajoutée, mêlant technique et stratégie métier. Un environnement Agile stimulant et collaboratif.
Freelance

Mission freelance
Cash Management - Project Management - Business Analyste KYC Industrialisation

NOVAMINDS
Publiée le
Data management
Know your customer (KYC)

9 mois
500-690 €
Paris, France
Objectifs Mise en place d'un parcours KYC optimum cross pôles et entités au service de la réalisation des KYC clients Corporate. Initiative logée au sein du programme Groupe. Prestations - Etude de la Cinétique du process KYC E2E - Analyses approfondies des besoins métiers et projeter des améliorations - Product ownership pour prioritiser les fonctionnalités - Aide à l'organisation du projet : planning, roadmap, scope - Préparation et animation des workshops avec le business afin de collecter les besoins fonctionnels - Création du lient avec les contributeurs, Compliance et IT implémenter les solutions - Participation aux tests de validation et coordination des UATs - Aide sur les comminations en français et en anglais - Participation si besoin au steering et partage de statut d'avancement sur le stream Secteur d’activité : Banque Calendrier : du 09/03/2026 au 31/12/2026 Tarif d’achat maximum : 690 €HT Modalité d’intervention : hybride Mode d’engagement : Régie Localisation : Ile de France
Freelance
CDI

Offre d'emploi
Data Analyst

Deodis
Publiée le
PowerBI
PySpark
Python

12 mois
40k-48k €
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Sur site à AIx en Provence, télétravail 2/3 jours par semaine L’objectif est d’intégrer un profil Data Analyst / Data Scientist capable d’exploiter les données du système d’information afin d’identifier des incohérences, de développer des analyses avancées et de contribuer à la mise en œuvre de cas d’usage liés à la détection de fraude. L’intervenant devra exploiter et croiser les données issues du système d’information afin d’analyser leur cohérence et leur impact sur les processus métiers sensibles, notamment dans le cadre de la lutte contre la fraude. Description des missions Prendre en compte les données du domaine « Individu Allocataire » et analyser leurs impacts dans le système d’information. Mettre en œuvre des cas d’usage métiers orientés lutte contre la fraude (ciblage, analyse de données, modèles prédictifs). Réaliser des analyses exploratoires et statistiques sur les données disponibles. Développer et maintenir des produits data réutilisables (scripts, traitements, modèles). Produire des restitutions analytiques à destination des équipes métiers. Respecter les normes, standards et bonnes pratiques en vigueur au sein de l’équipe. Livrables attendus Le titulaire devra produire les livrables suivants : Programmes et scripts de traitement de données dans l’environnement Big Data Hadoop . Développements documentés permettant la réutilisation et la maintenance des traitements. Restitution des analyses sous forme de : présentations PowerPoint , tableaux de bord Power BI .
Freelance
CDI

Offre d'emploi
Expert Data Platform Snowflake

Taimpel
Publiée le
AWS Cloud
CI/CD
Kubernetes

2 ans
59k-65k €
550-600 €
Massy, Île-de-France
Fiche de poste – Expert Data Platform Snowflake (H/F) Contexte de la mission Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Principales activités Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) Participer aux choix technologiques de l’offre à mettre en place Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units Accompagner à la prise en main de la plateforme Data Compétences spécifiques requises Connaissances techniques Les principales technologies à connaître : Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE Architectures Data et leur écosystème (Snowflake, Bedrock) Architectures et services du cloud (AWS en priorité, Terraform) Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC Languages : Shell, Python, SQL Sensibilité aux problématiques de sécurité et normes associées Maitrise des architectures des flux Autres Capacité à mobiliser, fédérer et créer une vision commune Capacité à travailler dans un contexte multi-site, multi-entité et international Bonne communication écrite et orale Langues Anglais lu et parlé de manière professionnelle Lieu de la mission & télétravail Site : Roubaix (59) ou Massy 2 jours maximum de travail à distance/semaine sous validation du prescripteur
Freelance

Mission freelance
Product Owner Data / Observabilité - ASAP - 92

Montreal Associates
Publiée le
Data quality
Grafana
Intégration

7 mois
550-650 €
Clichy, Île-de-France
Product Owner Data / Observabilité - ASAP - 92 Dans le cadre d’un produit de monitoring & réconciliation de données (E-commerce, Retail, CRM), nous recherchons un Product Owner expérimenté pour piloter la fiabilité des flux et la détection d’anomalies dans un environnement international. 🎯 Objectifs et Environnements Priorisation des use cases (contrôles & alerting) Traduction besoins métier → backlog / user stories Suivi roadmap & qualité des dashboards Microsoft Azure (SQL, Functions) Microsoft Power BI Microsoft Power Automate 👤 Profil Recherché PO spécialisé Data / monitoring / intégration Bonne compréhension des flux data Anglais courant #Freelance #ProductOwner #Data #Observabilité #Monitoring #Ecommerce
Freelance

Mission freelance
Data engineer GCP

NEOLYNK
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Looker Studio

3 ans
300-450 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Lille 2 jours de TT par semaine démarrage asap mission longue 3 ans
Freelance

Mission freelance
Data Analyste (H/F)

Freelance.com
Publiée le
PySpark

1 an
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
2 jours de télétravail non négociable Dans le cadre d’activités liées à l’ analyse de données pour des besoins de contrôle et prévention des risques , l’organisme recrute un Analyste Data afin d’intégrer une équipe spécialisée basée à Aix‑en‑Provence . L’objectif de cette mission est de concevoir et réaliser des analyses avancées à partir de l’ensemble des données du système d’information, afin d’évaluer leur cohérence et leur impact sur des processus métier sensibles . L’intervenant devra participer à la mise en place de cas d’usage orientés détection d’anomalies et comportements atypiques , en croisant différentes sources de données. Il sera également responsable de la création et de la maintenance de produits data réutilisables , tout en appliquant les pratiques internes de qualité, normes et gouvernance des données. Exemples de livrables attendus : Programmes de traitement Big Data Études et analyses documentées Présentations des résultats et recommandations Constructions de KPI et tableaux de bord de synthèse
CDI

Offre d'emploi
Tech Lead Data (H/F)

Amiltone
Publiée le

30k-35k €
Bordeaux, Nouvelle-Aquitaine
Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant que Tech Lead Data (H/F). Dans une organisation Agile, vous assurerez les missions suivantes : - Encadrer et accompagner l'équipe dans la réalisation des projets data - Optimiser les processus de delivery en s'appuyant sur les principes Lean - Garantir la performance, la scalabilité et la fiabilité des solutions data - Participer à la conception et à l'évolution de la plateforme data - Faciliter le partage de données avec les filiales du groupe et les clients B2B La stack technique : - Snowflake - SQL - Talend - DBT - Kafka - Python - PowerBI
CDI

Offre d'emploi
Data Scientist / Développeur Python – Data & Analytics

TOHTEM IT
Publiée le

40k-55k €
Paris, France
Contexte de la mission Dans le cadre du renforcement d’une équipe projet , nous recherchons un Data Scientist / Développeur Python pour intervenir sur des sujets liés au développement et à la valorisation de données . La mission s’inscrit dans un environnement technique orienté analyse, traitement et exploitation de données , avec pour objectif de concevoir et améliorer des composants permettant d’extraire de la valeur à partir de jeux de données complexes. Missions principales Analyser les besoins fonctionnels et participer à la conception technique des solutions Développer des traitements et scripts Python dédiés à l’analyse et à la transformation de données Manipuler, préparer et structurer des jeux de données Concevoir, améliorer ou intégrer des modèles de data science Participer à l’ industrialisation des traitements et des modèles Réaliser les tests, corrections d’anomalies et optimisations Contribuer à la documentation technique Participer aux échanges avec l’équipe projet et au suivi des travaux Livrables attendus Développements Python documentés Scripts et traitements de manipulation et d’analyse de données Jeux de tests et validation des traitements Modèles ou traitements de data science intégrés Documentation technique associée Correctifs et évolutions conformes aux exigences du projet Environnement technique Data & Développement Python Data Science Traitement et analyse de données Manipulation de jeux de données Outils & Plateformes Tableau Vertica DSS (Data Science Studio) Bonnes pratiques Développement de scripts et traitements de données Tests et debugging Documentation technique Travail collaboratif en équipe projet ⭐ Compétences clés (obligatoires) Python Data Scientist Tableau Vertica DSS
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Freelance

Mission freelance
Data Engineer (F/H)

CELAD
Publiée le

1 an
450-550 €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1696 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous