Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Toulouse

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 31 résultats.
Freelance

Mission freelance
Consultant SAP DATA MIGRATION

KUBE Partners S.L. / Pixie Services
Publiée le
SAP

1 an
620-700 €
Toulouse, Occitanie

Bonjour, Je recherche un consultant SAP Data Migration, pour intervenir sur une mission , chez un de nos clients.

Freelance
CDI

Offre d'emploi
Consultant junior en CMDB / ServiceNow

R&S TELECOM
Publiée le
CMDB
Data management
Data quality

12 mois
35k-45k €
400 €
Toulouse, Occitanie

Votre mission consistera à : Définir et évaluer les attributs clés de la qualité des données. Analyser en profondeur les données invalides ou manquantes afin d'en identifier les causes principales. Concevoir et implémenter des tableaux de bord pertinents pour le suivi de la qualité des données CMDB. Auditer et optimiser les processus métier ayant un impact sur la qualité des données. Contribuer activement à l'élaboration et à l'évolution de la stratégie de qualité des données de la CMDB. Coordonner et piloter les actions de remédiation de la qualité des données en étroite collaboration avec les Data Owners et les équipes à l’origine des données. Proposer et mettre en œuvre des solutions techniques ou des mises à jour de données. Rédiger une documentation technique et fonctionnelle exhaustive, ainsi que des articles de base de connaissances (knowledge articles). Animer et participer au réseau des utilisateurs pour promouvoir l'adhésion aux objectifs de gouvernance des données.

Freelance

Mission freelance
Architecte Data - Toulouse

Groupe Aptenia
Publiée le
Architecture
AWS Cloud
Big Data

6 mois
Toulouse, Occitanie

Environnement technique de la prestation À la suite d’une réorganisation interne ayant entraîné le départ de collaborateurs clés, le client fait face à une perte de maîtrise opérationnelle de sa plateforme Data. Cette dernière, incluant les services BI (Data Warehouse et Power BI), est désormais considérée comme un service critique, avec une exigence de disponibilité et de performance 24/7. Cette évolution s’accompagne d’une sollicitation accrue de la plateforme et d’une consommation continue des données, nécessitant une réactivité renforcée et une supervision proactive. Prestation attendue La mission consistera à travailler sur : Frameworks d’ingestion et restitution : Définir les standards pour ingestion (batch, streaming, CDC) et restitution (API, BI, data services). Vision AS IS > TO BE Framework « Observabilité & qualité des données » : Définir métriques et roadmap pour monitorer la qualité des données critiques, en lien avec une initiative déjà lancée avec SODA. Monitoring des flux & santé de la plateforme : Contribuer à la mise en place des indicateurs et outils pour surveiller la performance et la disponibilité des pipelines, service et ressources de la plateforme. (en lien avec le plan de robustification déjà lancé et les travaux menés en parallèle sur la partie FinOps) Plan de migration SSIS + SQL Server → Snowflake : Définir la méthodologie (phases, outils, patterns). Identifier les risques et dépendances. Stratégie d’Access Management : (priorité 2) Définir les rôles, politiques RBAC/ABAC. Garantir la conformité avec les standards de sécurité et gouvernance. Tous éléments de documentation jugés nécessaires pour sécuriser la gestion quotidienne et évolutive de la plateforme : des travaux de retro-documentations pourraient être réalisés afin d’illustrer les écarts VS état de l’art. Ces activités mèneront à la production des livrables ci-dessous : Documentation des frameworks ingestion & restitution(As is > To be). Plan d’observabilité & qualité des données (métriques, outils, roadmap). [CONTRIBUE]Tableau de bord pour monitoring des flux et santé plateforme. Plan de migration (méthodologie, roadmap, estimation effort). Stratégie d’Access Management (modèle de rôles, règles d’accès). Formaliser la feuille de route opérationnelle 2026+ avec le data architect déjà en place pour limiter les écarts avec l’état de l’art.

Freelance

Mission freelance
Data Engineer

Nicholson SAS
Publiée le
Apache Spark
Data visualisation
Java

12 mois
460-500 €
Toulouse, Occitanie

Entité : Industrie Location : Toulouse ou full-remote Date de démarrage : 17/11/2025 English possible Durée mission : 12 mois (date de fin : 09/10/2026) Mission: we are looking for a data engineer with Spark, Java, real-time processes and MongoDB skills He/She will have to help on the current project backlog ( corrections & new features ) Within a 3 people team for this domain but included in a larger team. Maintenance and evolutions of CCO projects (Big Data processing and real time processing). Project team of 2 developers and a project manager for coordination. Included in a larger team of approx. 8 to 10 peoples.

Freelance

Mission freelance
Ingénieur Data Cloud (H/F)

Link Consulting
Publiée le
BigQuery

12 mois
500-550 €
Toulouse, Occitanie

Notre client, acteur majeur du secteur bancaire, recherche un.e Data Engineer Cloud pour renforcer son pôle Data dans le cadre d’un vaste programme de modernisation de sa plateforme analytique et de migration vers le cloud. Le poste s’adresse à un profil confirmé, capable d’intervenir sur la conception et l’industrialisation de pipelines de données dans un environnement GCP / BigQuery, avec une approche orientée Data Engineering plutôt que développement applicatif. Vous rejoindrez une équipe d’experts data au sein d’un environnement technique moderne, reconnu pour son cadre de travail de qualité et sa culture d’innovation. Vos missions principales: Concevoir, développer et maintenir les pipelines de données dans un environnement Cloud GCP (BigQuery, Dataflow, Pub/Sub, etc.). Participer à la migration des flux et traitements On-Premise vers le Cloud. Optimiser les performances, la scalabilité et la qualité des données sur la plateforme. Contribuer à la mise en œuvre des bonnes pratiques d’ingénierie data : CI/CD, tests, supervision, gouvernance. Collaborer avec les équipes DataOps, BI et Architecture pour garantir la cohérence et la fiabilité des flux. Documenter les architectures, assurer la traçabilité et la qualité des livrables.

Freelance

Mission freelance
Data Engineer

Nicholson SAS
Publiée le
ETL (Extract-transform-load)
Linux
Microsoft Power BI

12 mois
360 €
Toulouse, Occitanie

Contexte / mission : Nous recherchons un data engineer expérimenté avec des compétences en SQL, ETL et outils de reporting. Le domaine Cargo Datawarehouse charge et affine les données pour les entreprises. Intervention au sein d’une équipe de 8 personnes. Profil : Data Engineer Nombre d’années d’expérience : plus de 5 ans Attendus : Il/elle devra intervenir sur le backlog actuel du projet (corrections et nouvelles fonctionnalités). Les données Cargo pour les domaines suivants sont chargées dans l’entrepôt de données : Données de billetterie et de réservation Données financières Données opérationnelles Serait également apprécié : compétence à piloter des sous-projets au sein du domaine CARGO, sous la responsabilité du responsable de domaine. Quel défi à relever ? PowerBI et GCP à l’avenir.

Freelance
CDI

Offre d'emploi
Expert CMDB / ServiceNow (H/F)

OBJECTWARE MANAGEMENT GROUP
Publiée le
CMDB
Data management
ITIL

1 an
50k-70k €
400-590 €
Toulouse, Occitanie

Contexte de la mission La donnée, pilier stratégique du patrimoine de notre client, est au cœur de leur performance. Son exploitation est un levier essentiel pour l'optimisation de leurs processus, l'amélioration de l'expérience client, l'accroissement de l'efficacité opérationnelle et, in fine, la croissance de leurs revenus. Pour pouvoir l'exploiter efficacement et en tirer toute la valeur, un investissement stratégique dans sa gestion et sa gouvernance est indispensable. La Direction Informatique, en phase avec cette vision, a initié une stratégie de gouvernance des données. Un département dédié a été récemment créé pour centraliser et optimiser la gestion de l'ensemble des données informatiques. Il s'appui notamment pour cela sur la solution ITSM ServiceNow : MyITService pour structurer et gérer de manière centralisée leur CMDB (Configuration Management Data Base) et leur CSDM (Common Service Model Management). Au sein de cette gouvernance de données, un accent particulier est mis sur la qualité des données dont les enjeux sont identifiés et priorisés et sur lesquels une communauté de Data Stewards est d'ores et déjà activement engagée. Votre mission consistera à : Définir et évaluer les attributs clés de la qualité des données. Analyser en profondeur les données invalides ou manquantes afin d'en identifier les causes principales. Concevoir et implémenter des tableaux de bord pertinents pour le suivi de la qualité des données CMDB. Auditer et optimiser les processus métier ayant un impact sur la qualité des données. Contribuer activement à l'élaboration et à l'évolution de la stratégie de qualité des données de la CMDB. Coordonner et piloter les actions de remédiation de la qualité des données en étroite collaboration avec les Data Owners et les équipes à l’origine des données. Proposer et mettre en œuvre des solutions techniques ou des mises à jour de données. Rédiger une documentation technique et fonctionnelle exhaustive, ainsi que des articles de base de connaissances (knowledge articles). Animer et participer au réseau des utilisateurs pour promouvoir l'adhésion aux objectifs de gouvernance des données.

Freelance

Mission freelance
Consultant Quality Conformance Management Toulouse secteur aéro

Signe +
Publiée le
Data quality

3 mois
400-450 €
Toulouse, Occitanie

🛎️ Je recherche un profil freelance QCM 💎 (Quality Conformance Management) basé idéalement à Toulouse pour intervenir à 100% sur site client dans le secteur aéronautique ✈️. QCM Hardskills: - Connaissance de l'aéronautique avec idéalement une expérience QAL sur les FAL - Analyse de données non qualité - Production & ME digital tools - Expertise en résolution en problèmes - Gestion de projets QCM Softskills: - Avoir une position de Lead & Drive - Savoir prendre du recul (Macro-Micro) - Responsabilité - Bonne communication - Esprit d'analyse - Travail en équipe Langue: Anglais et Français mandatory 🤚 Opportunité ouverte pour le freelancing uniquement basée à Toulouse Début de mission: Octobre 2025 ( voir avant ASAP) TJM max: 450 € HT TFC Toulouse

Freelance

Mission freelance
ARCHITECTE DATA

CAT-AMANIA
Publiée le
Data governance
Data quality

12 mois
400-550 €
Toulouse, Occitanie

Dans le cadre d'un projet pour l'un de nos clients dans le secteur de la monétique, vous interviendrez au sein de l’équipe d’architecture, l’architecte data aura pour mission de concevoir et mettre en œuvre la gouvernance des données de la solution applicative. L'objectif sera d'accompagner notre client sur l'étude, l'aide à la gouvernance Data, et la mise en œuvre. Principales activités Etude de l’existant de la solution Proposition d’une gouvernance data utile et efficace en cohérence avec l’organisation et la structure de la société Définition de l’architecture data de la solution applicative Collaboration avec les équipes métiers, techniques et sécurité pour garantir l’alignement des pratiques data. Définition ou proposition d’évolution des référentiels de données, dictionnaires de données et règles de gestion. Participation à la mise en place d’outils de gouvernance (Data Catalog, Data Quality, MDM, etc.). Accompagner les équipes dans l’adoption des bonnes pratiques de gestion des données. Assurer une veille technologique et réglementaire sur les sujets data.

Freelance

Mission freelance
Développeur fullstack - Data/IA (H/F)

LeHibou
Publiée le
Docker
Elasticsearch
FastAPI

6 mois
400-480 €
Toulouse, Occitanie

Notre client dans le secteur Santé et pharma recherche un/une Data / IA Engineer (H/F ) Description de la mission : Dans le cadre de nouveaux projets, notre client va rechercher un freelance expérimenté sur la partie Data. Vous interviendrez au sein de l'équipe Data intégration en tant que Data / IA Engineer. Vous serez responsable de la conception, du développement et de l'intégration de solutions complètes enrichies par des algorithmes d'intelligence artificielle. Vous jouerez un rôle crucial dans la création de services backend robustes et performants, en utilisant Python et FastAPI pour traiter et analyser des données complexes. Vos missions seront les suivantes : Concevoir et développer des services backend en Python et FastAPI, intégrant des techniques avancées de machine learning et de traitement de données massives. Gérer et optimiser des bases de données telles que MongoDB, Elasticsearch, ainsi que des systèmes SQL et NoSQL pour assurer un stockage et une analyse efficaces des données. Mettre en œuvre des méthodologies de CI/CD en utilisant Docker et GitLab CI, avec un fort accent sur l'automatisation des workflows de data science pour garantir une intégration et une livraison continues fluides. Collaborer avec les équipes de développement pour intégrer des modèles d'IA dans les applications, en assurant leur performance et leur scalabilité. (Optionnel) Développer des interfaces utilisateur interactives en utilisant React et Next.js, permettant une interaction fluide avec les modèles d'IA.

Freelance

Mission freelance
Teach Lead

Nicholson SAS
Publiée le
Big Data
Control-M
ETL (Extract-transform-load)

12 mois
400 €
Toulouse, Occitanie

Contexte / mission : Nous recherchons un data engineer senior, avec une forte expérience en Java/Spark, pour rejoindre l’équipe XXXXXXXX. L’équipe XXXXXXXXX est composée de business analysts, développeurs interfaces graphiques, data scientists et data engineers. Les data engineers sont responsables de la partie prétraitement des données. Ils gèrent les pipelines de données qui alimentent les modèles prédictifs, avant de transférer les données calculées vers le back-end des interfaces graphiques. La solution actuelle, on-premise, est en cours de migration vers GCP. Domaine métier : E&M

CDI
Freelance

Offre d'emploi
Data lake protection

SARIEL
Publiée le
Data Lake
Splunk

3 ans
40k-60k €
400-550 €
Toulouse, Occitanie

Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons sur Toulouse le profil suivant : Intégrer les solutions de Data Leak Protection (DLP) en établissement Contrainte forte du projet - Les livrables sont Solutions et Règles DLP Analyse des évènements générés Rapport/Tableaux de bord de l'activité Compétences techniques Outils Data Leak Prevention - Confirmé - Impératif Splunk - Confirmé - Important Développement / Scripting - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Description détaillée Le département Cloud, Application, Data et Expertise Sécurité de la Direction Sécurité de BPCE-IT recherche pour le service Data Protection un expert en Data Leak Prevention de formation ingénieur pour l'accompagner dans sa mission de protection des données sensibles Au sein d'une équipe de plusieurs experts, la mission s'inscrira dans le cadre d'un projet visant à prévenir de la fuite de données. Les principales activités seront les suivantes: - Capture des besoins de protection des données sensibles métiers - Définition, paramétrages et amélioration des règles DLP - Améliorer les solutions de détections - Participer aux choix et à la mise en oeuvre des nouveaux outils - Analyse des évènement générées et optimisation des faux positifs - Suivi des rémédiations - Définition, suivi des indicateurs de l'activités - Création d'un tableau de bord Pour remplir cette mission les compétences suivantes sont demandées: - Compétences fonctionnelles et techniques sur les sujets DLP - Connaissances des outils Trellix DLP, Netskope, Splunk - Compétence de développement (PowerApp, PowerBI, Python) - Culture en SSI/Cybersécurité et en particulier sur les risques associés aux fuites d'information - Connaissances techniques générales Lieu de réalisation Toulouse Déplacement à prévoir oui - Paris, Lyon Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

CDI

Offre d'emploi
Data Engineer Sénior

INFOGENE
Publiée le

37 500 €
Toulouse, Occitanie

Au sein de la Direction Systèmes d’Information & Accélération Digitale et rattaché(e) au Directeur Service Data Intégration, nous cherchons un(e) Expert(e) solution Data afin de définir, développer, mettre en place, maintenir les outils et les projets Analytics. 1.1. CONTENU DE LA MISSION OU DES LIVRABLES Vous implémentez et industrialisez les pipeplines pour collecter, nettoyer, modéliser, cataloguer et restituer des données afin de les rendre accessible tout en veillant à leur qualité. Plus précisément, vous : 1. Concevez des solutions pour collecter, transformer et exploiter des gros volumes de données. 2. Participez à l’industrialisation des traitements et à leur amélioration continue, au monitoring pour qu’ils soient fiables, robustes et performants afin de répondre aux exigences métiers 3. Implémenter et opérer les projets Data et Analytics centraux sur une plateforme mutualisée (Data Platform) 4. D'assurer le run des projets Data & Analytics centraux en second niveau derrières les équipes en charge. 5. Vous assurez une veille technologique afin d’être à la pointe des connaissances en matière de data et de participer à la définition de la Roadmap technologique Data & Analytics. 1.2. SPECIFICITE DE LA MISSION Vous maîtrisez des langages de programmation (Python, Java, Shell), des solutions de bases de données type Snowflake, des ELT (Matillion, Azure Data Factory) ainsi que la solution Power BI. Vous êtes à l’aise dans les environnements Cloud (Azure, Google) et avec les outils d’intégration et de déploiement continue (Jenkins, git, gitlab, création de CI/CD, docker, Ansible, kubernetes…) Vous avez un très bon niveau d’anglais professionnel vous permettant d’interagir à l’oral, comme à l’écrit, dans un environnement international. Au-delà de vos compétences techniques, vous êtes reconnu(e) pour : - Capacité à analyser les exigences fonctionnelles et à les formaliser en solutions techniques - Votre esprit collaboratif et votre capacité à interagir avec les métiers - Votre rigueur, votre autonomie et votre sens de l’organisation vous permettant de gérer plusieurs projets en parallèle - Capacité à piloter et challenger des prestataires extérieurs - Aisance en matière de participation à des projets en milieu international : sens du contact, de la communication orale, sensibilité dans les relations personnelles et interculturelles La mission portera sur les outils suivants : • Tableau Software : Pour la visualisation et l'analyse de données. • Alteryx : Pour la préparation et l'automatisation des flux de données. • Snowflake : Pour la gestion des bases de données. • Matillion : Pour les processus ELT. • Azure Data Factory : Pour l'intégration et l'orchestration des données. • Airflow : Pour l'orchestration des workflows. • MS Fabric – Power BI : Pour la gestion des données et des analyses. • Denodo : Pour la virtualisation des données.

Freelance

Mission freelance
Consultant DATA MANAGEMENT ServiceNow H/F

Karma Partners
Publiée le
CMDB
ServiceNow

6 mois
400-550 €
Toulouse, Occitanie

Au sein de cette gouvernance de données, un accent particulier est mis sur la qualité des données dont les enjeux sont identifiés et priorisés et sur lesquels une communauté de Data Stewards est d'ores et déjà activement engagée. Au sein de l'équipe IT4IT Data & AI Office, en tant qu'expert(e) Data Steward, votre mission consistera à : Définir et évaluer les attributs clés de la qualité des données. Analyser en profondeur les données invalides ou manquantes afin d'en identifier les causes principales. Concevoir et implémenter des tableaux de bord pertinents pour le suivi de la qualité des données CMDB. Auditer et optimiser les processus métier ayant un impact sur la qualité des données. Contribuer activement à l'élaboration et à l'évolution de la stratégie de qualité des données de la CMDB. Coordonner et piloter les actions de remédiation de la qualité des données en étroite collaboration avec les Data Owners et les équipes à l’origine des données. Proposer et mettre en œuvre des solutions techniques ou des mises à jour de données. Rédiger une documentation technique et fonctionnelle exhaustive, ainsi que des articles de base de connaissances (knowledge articles). Animer et participer au réseau des utilisateurs pour promouvoir l'adhésion aux objectifs de gouvernance des données.

Freelance

Mission freelance
Architecte Data - Gouvernance des données

STHREE SAS pour HUXLEY
Publiée le

12 mois
500-650 €
Toulouse, Occitanie

Contexte : Au sein d'une équipe d'architecture dédiée à une solution applicative stratégique dans le domaine des paiements, l'architecte data aura pour mission de concevoir et mettre en œuvre la gouvernance des données de la solution applicative du client. Lieu : Toulouse Missions principales : Étudier l'existant de la solution applicative Proposer une gouvernance data utile et efficace, en cohérence avec l'organisation et la structure de l'entreprise Définir l'architecture data de la solution Collaborer avec les équipes métiers, techniques et sécurité pour garantir l'alignement des pratiques data Définir ou faire évoluer les référentiels de données, dictionnaires de données et règles de gestion Participer à la mise en place d'outils de gouvernance : Data Catalog, Data Quality, MDM, etc. Accompagner les équipes dans l'adoption des bonnes pratiques de gestion des données Assurer une veille technologique et réglementaire sur les sujets liés à la data Compétences requises : Expérience avérée dans la mise en place ou le pilotage d'une gouvernance data Maîtrise des architectures data Connaissance des outils de gouvernance de données Bonne compréhension des normes de sécurité et de conformité (RGPD, PCI DSS…) Autonomie, rigueur, esprit d'équipe Anglais professionnel Les plus : Certification en gouvernance des données (ex : DCAM, CDMP) Expérience dans le domaine de la monétique Connaissance du cloud IBM (gros plus)

Freelance

Mission freelance
Data Engineer – GCP / BigQuery / DBT

Intuition IT Solutions Ltd.
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

12 mois
Toulouse, Occitanie

Contexte de la mission Nous recherchons un Data Engineer expérimenté afin de renforcer l’équipe Data et contribuer à la mise en place, l’optimisation et l’industrialisation de la plateforme de données sur Google Cloud Platform (GCP) . Vous interviendrez sur des problématiques de modélisation, transformation et exploitation de données avec BigQuery et DBT , en collaboration avec les équipes métier et analytics. Vos missions Concevoir, développer et maintenir les pipelines de données dans un environnement GCP. Implémenter et optimiser des modèles de données dans BigQuery . Mettre en place et maintenir les transformations avec DBT (Data Build Tool). Garantir la qualité, la performance et la fiabilité des traitements de données. Participer aux choix techniques et bonnes pratiques (CI/CD, documentation, monitoring). Collaborer avec les équipes Data Analysts / Data Scientists pour assurer la disponibilité et la pertinence des données.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

31 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Toulouse, Occitanie
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous