Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 470 résultats.
CDI
Freelance

Offre d'emploi
Architecte Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Freelance
CDI

Offre d'emploi
Chef de projet Data

UCASE CONSULTING
Publiée le
Architecture
Azure Data Factory
Microsoft Power BI

1 an
26k-76k €
400-600 €
Paris, France
Dans le cadre du renforcement d’une équipe projet Data, nous recherchons un chef de projet Data senior pour notre client engagé dans une mise en place d’une Data Platform . L’objectif est de reprendre la maîtrise technique en interne en constituant une équipe d’experts, avec un appui initial de prestataires externes. Dans ce cadre, un projet stratégique autour de la connaissance des usages et de la mobilité est en cours de refonte de réalisation "mode agile" et en lien avec plusieurs équipes techniques et métiers. Missions principales : Pilotage de projet en méthodologie Agile Gestion du backlog et animation des sprints (JIRA) Coordination d’équipes pluridisciplinaires : Data Engineer, Data Viz, UX/UI, OPS/métiers. Animation des rituels Agile (daily, comités, ateliers) Suivi des charges, priorités et budgets Contribution aux choix stratégiques Supervision des tests et du delivery Maintien en condition opérationnelle (MCO) Environnement technique: Cloud & Data : Azure Data Factory, Data Lake Traitement Data : Spark, Databricks Langages : Python, Scala, SQL Data Viz : Power BI CI/CD & outils : Jenkins, Git, Maven, Ansible Gouvernance & communication : Remonter les informations clés aux équipes de pilotage et sponsors Participer aux instances de gouvernance (comités projet, tribu, etc.) Contribuer aux orientations et choix stratégiques Organisation agile : Animer l’ensemble des cérémonies Agile (daily, sprint planning, review, retrospective) Piloter le backlog : priorisation, chiffrage et réestimation du reste à faire Garantir la bonne application des pratiques Agile
Freelance

Mission freelance
Consultant MS BI Power BI

Clémence Consulting
Publiée le
Azure Data Factory
DAX
Microsoft Power BI

3 mois
Paris, France
Pour créer de A à Z (modélisation, alimentation... jusqu'aux rapports) des reporting pour une nouvelle activité ; la mission comprendra les tâches suivantes : · Concevoir des modèles de données adaptés. · Créer et optimiser des bases de données et entrepôts de données (SQL Server principalement). · Prendre en charge les développements de rapports Power BI. · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production.
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake

KLETA
Publiée le
DBT
Snowflake

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Snowflake pour concevoir, optimiser et industrialiser des plateformes analytiques cloud modernes. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (migration vers Snowflake, optimisation des modèles de données, amélioration des pipelines ELT) et guiderez leur mise en œuvre avec Snowflake, dbt et les outils d’orchestration associés. Vous serez responsable de la structuration des modèles de données, de l’optimisation des performances des requêtes et de la mise en place de mécanismes de gouvernance et de traçabilité. Vous travaillerez main dans la main avec les équipes Cloud, Data et DevOps pour intégrer les traitements dans des pipelines CI/CD fiables et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering moderne et d’usage avancé de Snowflake. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Business Analysts expérimentés sur Workday

Codezys
Publiée le
Business Analysis
Data management
Formation

12 mois
Paris, France
Contexte du projet : Dans le cadre du déploiement international de Workday, SAUR met en œuvre un programme de transformation de son SIRH couvrant environ 20 pays et 12 000 collaborateurs. Ce projet vise à harmoniser, sécuriser et optimiser les processus RH à l’échelle mondiale. Besoins en renfort : Renforcer l’équipe centrale SIRH en intégrant deux Business Analysts expérimentés sur Workday, capables d’intervenir sur les aspects fonctionnels, la configuration et la coordination avec les équipes RH locales. Assurer une assistance opérationnelle auprès de plusieurs filiales pour accompagner l’appropriation de Workday, garantir la qualité des données et des processus RH, et faire le lien entre les besoins métiers locaux et l’équipe centrale. Contexte organisationnel : L’équipe centrale SIRH se compose actuellement de trois personnes intervenant partiellement sur le sujet, ainsi que d’un lead change dédié à la communication. L’ajout de ces consultants est nécessaire pour accompagner efficacement le déploiement dans un contexte sensible et international. Objectifs et livrables : Coordination avec les équipes RH locales : identifier les rôles et responsabilités, comprendre les processus spécifiques à chaque pays, accompagner l’adoption de Workday, et soutenir la gestion des tickets pour assurer un support structuré et harmonisé. Support fonctionnel et optimisation : analyser les problématiques rencontrées, proposer des améliorations métier, et contribuer à la configuration des modules Workday, notamment sur le Core RH et les instances adaptées aux besoins locaux. Gestion de la qualité des données : vérifier, améliorer la cohérence et la fiabilité des informations RH intégrées dans Workday. Formation et accompagnement : former les équipes locales, identifier les points de blocage, et proposer des plans d’action pour faciliter l’utilisation de la plateforme, tout en diffusant efficacement les communications liées au programme.
Freelance

Mission freelance
Consultant Data & Reporting - Cash Management

NOVAMINDS
Publiée le
Business Analyst
Data management

4 mois
550-650 €
Paris, France
Objectif de la mission · Collecter, produire et valider les données requises afin de réaliser l’ensemble du reporting interne. · Assurer une gestion centralisée de la disponibilité et de la fiabilité des données, dans les délais, pour permettre la livraison du reporting. Prestations demandées · Coordonner avec différentes équipes de reporting et autres parties prenantes (IT, métiers) afin d’intégrer les exigences réglementaires dans le reporting. · Revoir les processus de reporting existants, identifier des opportunités d’amélioration de l’organisation opérationnelle et mettre en œuvre les changements. · Partager et former les équipes de production de reporting aux nouvelles solutions de reporting conçues. · Revoir et piloter le reporting des KPI, garantir les niveaux de service/qualité, et reporter aux parties prenantes via différents comités. · Interagir avec différentes équipes.
Freelance

Mission freelance
Data Analyst Monétique

Signe +
Publiée le
Azure
Google Cloud Platform (GCP)
SQL

6 mois
400-480 €
Paris, France
Bonjour, Nous recherchons pour l'un de nos clients un Data Analyst Monétique. Contexte La squad data monétique au sein de la Datafactory a la charge de : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement, Dans ce cadre, les missions sont : • Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité • Animer des groupes de travail avec les sponsors, les business analyst et les membres de la squad (data viz, data engineer, business analyst) • Rédaction des livrables : spécifications fonctionnelles et techniques / user story, cahiers de recette • Réaliser les recettes des traitements d'intégration et de transformation de données • Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner • Formation et accompagnement des utilisateurs. Description • Maitrise du SQL • Compétences métiers en moyens de paiements fortement recommandées • Connaissances des outils de requêtage Data et de plateformes Big Data, idéalement Cloud (Azure, GCP) • Excellentes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Autonomie et rigueur • Sens de l'initiative et du résultat • Maitrise des méthodes agiles et des rituels associés.
Freelance
CDI

Offre d'emploi
Data Engineer Streaming

KLETA
Publiée le
Apache Kafka
Apache Spark

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance
CDI

Offre d'emploi
Business Analyst MDM / Data

VISIAN
Publiée le
Big Data
Data governance
ETL (Extract-transform-load)

1 an
Paris, France
Descriptif du poste Au sein d'une équipe data qui a pour mission de définir la stratégie et la feuille de route Data du groupe, de développer et gérer l'écosystème de partenaires Data, de définir et déployer la gouvernance des données, de définir et piloter le plan d'acculturation Data, et d'accompagner le déploiement des produits et services Data. Le Global Data Office a en charge le développement et le maintien des données de référence du groupe, et a lancé un programme de refonte de la plateforme de Master Data Management
Freelance

Mission freelance
Data Manager – Urbanisation et Gouvernance des Données - Marketing Digital

ARTESIA IT
Publiée le
Data governance

1 an
600-700 €
Paris, France
Nous recherchons un Data Manager expérimenté pour un rôle transverse, axé sur l’urbanisation des données, l’architecture fonctionnelle et la gouvernance des données. L’objectif : garantir la cohérence, l’interopérabilité et la fiabilité à long terme des actifs data à travers les différents domaines de l’entreprise, avec une forte orientation marketing digital. 🔹 Missions principales Architecture fonctionnelle & modélisation des données : définir et maintenir des modèles de données cohérents et alignés avec la stratégie métier. Urbanisation des données : organiser l’ownership par domaine, valoriser les actifs data et définir la vision cible des données. Qualité & gouvernance des données : mettre en place et suivre des règles de qualité et de traçabilité (data lineage), en garantissant la conformité et la fiabilité des informations. Collaboration transverse : travailler en mode Agile avec les équipes métiers et IT, en accompagnant le changement de manière constructive. Conseil stratégique : clarifier des sujets complexes, favoriser l’alignement inter-équipes et apporter une vision métier combinée à une expertise technique pointue. 🔹 Profil recherché Minimum 10 ans d’expérience en Data Management , avec expertise en modélisation de données et en pratiques de gouvernance. Maîtrise de la normalisation/dénormalisation , du SQL et des concepts de data lineage . Solide compréhension des règles fonctionnelles complexes , idéalement dans le domaine du marketing digital. Excellente maîtrise du français et de l’anglais . Profil proactif, autonome et doté d’excellentes compétences relationnelles pour faciliter l’adhésion et la collaboration. 🔹 Ce que nous offrons Un rôle stratégique et transverse au sein d’une organisation innovante. La possibilité de travailler sur des projets à forte valeur ajoutée, mêlant technique et stratégie métier. Un environnement Agile stimulant et collaboratif.
Freelance

Mission freelance
Cash Management - Project Management - Business Analyste KYC Industrialisation

NOVAMINDS
Publiée le
Data management
Know your customer (KYC)

9 mois
500-690 €
Paris, France
Objectifs Mise en place d'un parcours KYC optimum cross pôles et entités au service de la réalisation des KYC clients Corporate. Initiative logée au sein du programme Groupe. Prestations - Etude de la Cinétique du process KYC E2E - Analyses approfondies des besoins métiers et projeter des améliorations - Product ownership pour prioritiser les fonctionnalités - Aide à l'organisation du projet : planning, roadmap, scope - Préparation et animation des workshops avec le business afin de collecter les besoins fonctionnels - Création du lient avec les contributeurs, Compliance et IT implémenter les solutions - Participation aux tests de validation et coordination des UATs - Aide sur les comminations en français et en anglais - Participation si besoin au steering et partage de statut d'avancement sur le stream Secteur d’activité : Banque Calendrier : du 09/03/2026 au 31/12/2026 Tarif d’achat maximum : 690 €HT Modalité d’intervention : hybride Mode d’engagement : Régie Localisation : Ile de France
Freelance
CDI

Offre d'emploi
Data Engineer Kubernetes

KLETA
Publiée le
Helm
Kubernetes

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Test technico-fonctionnel Referentiel et Data

Sapiens Group
Publiée le
PostgreSQL
Test unitaire
VMware

1 an
Paris, France
📢 Consultant(e) Test / Recette Fonctionnelle (H/F) 📍 Localisation : Île-de-France 📅 Type de mission : Mission longue durée 🗂️ Secteur : Référentiel & Data 🎯 Contexte de la mission Au sein d’une Direction Homologation, vous intégrerez une équipe dédiée aux activités de recette et de tests. Sous la responsabilité du responsable de pôle et des test managers, vous interviendrez sur des projets liés aux domaines Référentiel et Data. 🛠️ Vos missions 🔹 Élaboration des recettes fonctionnelles : Analyse des spécifications fonctionnelles Identification du périmètre de test Conception des cas de test Rédaction des plans de test et cahiers de recette Collaboration avec les équipes Études et Métiers 🔹 Exécution des tests : Réalisation des tests fonctionnels et techniques Analyse des résultats Déclaration, suivi et qualification des anomalies 🔹 Gestion des environnements : Installation, exploitation et maintenance des environnements de test 🔹 Support & suivi : Analyse et gestion des incidents selon les SLA et niveaux de criticité Diagnostic fonctionnel et technique des anomalies Support aux équipes projet 🔹 Automatisation des tests : Participation à la mise en place et à la maintenance des tests automatisés 📦 Livrables attendus Plan de test Cahier de recette Rapport de test Suivi et rapports d’anomalies Comptes-rendus d’activité Modes opératoires Scripts et automates de test 🧠 Compétences requises 🔧 Techniques : Outils bureautiques Outils de gestion et pilotage de tests Outils de test (manuels et automatisés) Environnements : VMWare, PostgreSQL, EBX, XML 📊 Fonctionnelles : Connaissance des activités de compensation (ancienne et nouvelle génération) 📜 Certifications : Certification ISTQB appréciée 🌍 Langues : Français courant Anglais professionnel 👤 Profil recherché Expérience significative en test fonctionnel / recette Rigueur, esprit d’analyse et autonomie Bonne communication et capacité à travailler en équipe Appétence pour les environnements data
Freelance

Mission freelance
Business Analyst Data (Advanced)

Gentis Recruitment SAS
Publiée le
Big Data
Business Analyst
Data Lake

12 mois
Paris, France
Contexte de la mission Grand groupe international du secteur de l’énergie, fortement orienté data-driven, souhaite renforcer l’exploitation de ses données de marché afin de : Réduire les risques opérationnels Améliorer l’efficacité des équipes métiers Développer de nouvelles offres basées sur la donnée Le projet stratégique vise la mise en place d’une architecture Big Data de type médaillon (Bronze / Silver / Gold) dédiée aux market datas issues de différentes plateformes de marché. Objectifs du projet Le programme consiste à : Mettre en place les layers : Silver : données structurées et normalisées Gold : données calculées (orders, trades, orderbooks, best bid/ask, OHLC, VWAP, TWAP, etc.) Implémenter le data management : Data quality Data catalog Monitoring Exposer les données Gold via SDK et interfaces métiers Définir et appliquer les politiques d’accès Reprendre l’historique pour permettre le décommissionnement de solutions legacy Rôle du Business Analyst Le consultant interviendra au cœur d’un environnement mêlant équipes métiers (Trading Surveillance, Quant, Market Analysts) et équipes Data Engineering. Analyse & Cadrage Recueil et structuration des besoins métiers liés aux market datas Animation d’ateliers avec les stakeholders Analyse approfondie des données sources Identification des incohérences et cas spécifiques Spécifications fonctionnelles & Data Rédaction des spécifications Silver / Gold Définition des règles de transformation et d’enrichissement Data mapping Gestion de la complexité temporelle des données de marché Définition des modèles orientés usages métiers Data Management & Gouvernance Définition des règles de qualité et indicateurs Contribution au monitoring Participation au data catalog Garantie de traçabilité des règles métier Coordination & Delivery Collaboration étroite avec les Data Engineers Suivi des développements Élaboration de la stratégie de tests Conception et exécution des plans de tests Participation aux comités projet
CDI

Offre d'emploi
Data Scientist / Développeur Python – Data & Analytics

TOHTEM IT
Publiée le

40k-55k €
Paris, France
Contexte de la mission Dans le cadre du renforcement d’une équipe projet , nous recherchons un Data Scientist / Développeur Python pour intervenir sur des sujets liés au développement et à la valorisation de données . La mission s’inscrit dans un environnement technique orienté analyse, traitement et exploitation de données , avec pour objectif de concevoir et améliorer des composants permettant d’extraire de la valeur à partir de jeux de données complexes. Missions principales Analyser les besoins fonctionnels et participer à la conception technique des solutions Développer des traitements et scripts Python dédiés à l’analyse et à la transformation de données Manipuler, préparer et structurer des jeux de données Concevoir, améliorer ou intégrer des modèles de data science Participer à l’ industrialisation des traitements et des modèles Réaliser les tests, corrections d’anomalies et optimisations Contribuer à la documentation technique Participer aux échanges avec l’équipe projet et au suivi des travaux Livrables attendus Développements Python documentés Scripts et traitements de manipulation et d’analyse de données Jeux de tests et validation des traitements Modèles ou traitements de data science intégrés Documentation technique associée Correctifs et évolutions conformes aux exigences du projet Environnement technique Data & Développement Python Data Science Traitement et analyse de données Manipulation de jeux de données Outils & Plateformes Tableau Vertica DSS (Data Science Studio) Bonnes pratiques Développement de scripts et traitements de données Tests et debugging Documentation technique Travail collaboratif en équipe projet ⭐ Compétences clés (obligatoires) Python Data Scientist Tableau Vertica DSS
Freelance

Mission freelance
Data Analyst – Data produit & trafic web - Paris (H/F)

EASY PARTNER
Publiée le
Apache Spark
Microsoft Power BI
PL/SQL

1 an
400-430 €
Paris, France
Dans le cadre de projets liés à l’analyse de la performance digitale (web et mobile), un acteur du secteur digital recherche un Data Analyst . Les missions portent sur l’analyse des données de trafic et des usages utilisateurs. Missions Analyser les données d’usage (web / mobile / trafic) Construire et maintenir des dashboards métiers (Power BI, Tableau) Suivre les KPIs produits et business Collaborer avec les équipes produit et techniques Participer au reporting et à la prise de décision Power BI tracking web outils analytics (type GA, dataLayer…) SQL avancé Power BI / Tableau Python

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

470 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous