Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 465 résultats.
Freelance

Mission freelance
Data Engineer Senior – Azure Databricks (Python) (H/F)

HOXTON PARTNERS
Publiée le
Azure
Databricks
Python

6 mois
Paris, France
Dans le cadre d’un projet Data sous environnement Microsoft Azure, nous recherchons un Data Engineer disposant d’une expérience significative sur Azure Databricks (Python). Le consultant interviendra sur la conception, le développement et l’optimisation de traitements data au sein d’une plateforme moderne. Il participera à la mise en place de pipelines de transformation et à l’intégration des flux dans l’écosystème Azure. Les principales responsabilités incluent: Développement de notebooks Azure Databricks en Python / PySpark Conception et optimisation de pipelines de transformation Intégration avec Azure Data Factory Contribution aux sujets de gouvernance via Unity Catalog Participation aux déploiements et bonnes pratiques d’industrialisation (Terraform)
Freelance
CDI

Offre d'emploi
Ingénieur Support et Exploitation Plateformes Data

VISIAN
Publiée le
Apache Spark
Kubernetes

1 an
40k-45k €
400-650 €
Paris, France
Descriptif du poste Notre équipe est responsable du maintien en condition opérationnelle des plateformes suivantes qui tournent sur IKS (Kubernetes IBM) et bientôt sur OpenShift : Apache Spark Apache Airflow/Astronomer Starburst (trino) Dans le cadre du renforcement de notre capacité de support sur la nouvelle offre "DATAHUB V2", nous recherchons des prestataires spécialisés dans l'exploitation et le support de ces plateformes. Missions La prestation visera à : Assurer le maintien en condition opérationnelle en production des plateformes (Airflow, Spark, Starburst) Intervenir dans la gestion des incidents, l'analyse des root causes et la résolution Participer à l'optimisation des traitements Spark sur Kubernetes (tuning, configuration, dimensionnement), à l'optimisation de l'orchestration Airflow, à la gestion des catalogues Starburst Accompagner les équipes métiers dans l'utilisation efficace et sécurisée des plateformes Contribuer à la documentation et à l'amélioration continue de l'écosystème d'exploitation
CDI

Offre d'emploi
Data Quality Analyst

VISIAN
Publiée le
Dataiku
Tableau software

26k-40k €
Paris, France
Contexte et Objectifs Le bénéficiaire souhaite une prestation d'accompagnement dans l'objectif d'assurance de développement et la mise en œuvre des indicateurs et dashboards sur la qualité des données au sein de la production informatique mutualisée (gestions des données de l'IT), dans un contexte technique complexe, et en méthode agile. Dans le cadre du programme ECB 8MILE, le data quality analyst assurera le développement des méthodes de contrôle qualité des données avec des dashboards / KPI permettant de piloter les remédiations. Missions Principales Maîtrise Data preparation (Mandatory - Niveau Expert) : développement de flow de préparation, traitement des données afin d'extraire les données essentielles et optimiser les performances dans la data visualisation Maîtrise Data visualisation (Mandatory - Niveau Expert) : Le développement de dashboards mettant en évidence l'état de santé des bases de données sur différents axes (inventaire, état, résilience, backup, obsolescence) Infrastructures IT : connaissance générale sur les différentes solutions de production informatiques et leurs interactions (serveurs, réseaux, télécom, stockage, filtrage, répartition de charge, mainframe, virtualisation, docker, ITIL, ITSM, sécurité informatique, middleware, etc)
Freelance

Mission freelance
Lead Plateforme MLOps / LLMOps

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Azure AI

12 mois
500-600 €
Paris, France
Mission de pilotage de socle industriel IA Contexte Dans le cadre de sa stratégie Data & IA, notre client en secteur d'assurance engage un programme structurant visant à industrialiser et accélérer le déploiement des cas d’usage de Data Science, Machine Learning et IA Générative (LLM) . Ce programme repose sur la mise en place de socles technologiques mutualisés, robustes, sécurisés et scalables , notamment : une plateforme MLOps , un socle LLMOps , un environnement Python standardisé . Ces socles doivent permettre aux équipes Data & IA de concevoir, entraîner, déployer et superviser des modèles d’IA de bout en bout, dans des conditions industrielles. Dans ce contexte, notre client recherche un Responsable Plateforme MLOps , en charge du pilotage, de la conception, de la mise en œuvre et de l’exploitation du socle MLOps . Responsable Plateforme MLOps (Mission pilote de socle IA) Rattachement fonctionnel Data Office / Direction Data & IA En collaboration étroite avec : équipes Data Scientists & ML Engineers équipes IT / DSI / Production équipes Architecture et Sécurité SI 🎯 MISSIONS PRINCIPALES1. Conception & Architecture Définir, maintenir et faire évoluer l’ architecture cible de la plateforme MLOps en cohérence avec les standards du client. Sélectionner et intégrer les outils MLOps les plus pertinents (orchestration, versioning, CI/CD IA, monitoring…), sur la base du cadrage réalisé. Garantir l’ interopérabilité avec les socles LLMOps existants et l’environnement Python à venir . Valider les choix techniques avec les instances d’architecture et de sécurité. 2. Mise en œuvre & Déploiement Piloter et contribuer activement à la mise en œuvre technique du socle MLOps. Compléter le socle CI/CD existant avec les composants spécifiques à l’IA et au ML. Définir et implémenter les processus de déploiement, de versioning et de mise à jour des modèles en production . Travailler en coordination avec les équipes DSI / Production Data. 3. Exploitation, RUN & Monitoring Garantir la disponibilité, la performance, la sécurité et la scalabilité de la plateforme. Mettre en place un monitoring proactif des modèles (qualité, dérive, performance) et de l’infrastructure. Définir et suivre les KPIs, SLAs et indicateurs de service . Gérer les incidents et problèmes selon les pratiques ITIL. 4. Standardisation & Bonnes pratiques Définir et diffuser les bonnes pratiques MLOps auprès des équipes Data & IA. Mettre en place des standards de développement, de test, de packaging et de déploiement des modèles. Produire et maintenir une documentation technique et fonctionnelle complète. 5. Accompagnement & Support Accompagner les Data Scientists et ML Engineers dans l’appropriation de la plateforme. Fournir un support technique expert . Contribuer aux actions de formation, de conduite du changement et de partage de connaissances , en lien avec les équipes Change du Data Office. 6. Veille & amélioration continue Assurer une veille technologique active sur les outils et pratiques MLOps / LLMOps. Proposer des évolutions continues du socle en fonction des besoins métiers et des innovations du marché.
Freelance
CDI

Offre d'emploi
Data Base Administrator

HN SERVICES
Publiée le
Oracle
PL/SQL

1 an
28k-50k €
100-450 €
Paris, France
Ses principales activités • Contribuer à la conception de l’infrastructure en charge d’accueillir la BDD en lien avec le Référent IT Solution • Contribuer aux chiffrages des développements BDD à réaliser • Contribuer au maintien du référencement des BDD Hors production et à leur administration • Contribuer à la conception technique (MCD, MPD) de la solution à mettre en œuvre dans le respect des choix techniques en lien avec les autres intervenants du projet • Participer à la réalisation des scripts de création des modèles physiques • Contribuer à la gestion de configuration logicielle des composants de bases de données • Contribuer à l’optimisation/la vérification de l’adéquation des modèles et des requêtes • Intégrer les composants dans une version de mise en production
Freelance

Mission freelance
un Senior Agile Java Developer – Cloud Migration (AWS / OVH)

Keypeople Consulting
Publiée le
API REST
AWS Cloud
Bash

6 mois
400-550 €
Paris, France
Dans le cadre d’un programme stratégique de migration vers le cloud , nous recherchons un Développeur Java Senior pour accompagner la modernisation d’applications critiques vers des environnements AWS et OVH Cloud . Vous interviendrez au sein d’une feature team Agile sur des projets de transformation visant à migrer des applications existantes vers des architectures cloud-native et microservices . Vos missions · Participer à la migration d’applications Java/Spring vers le cloud (AWS / OVH) · Refactoriser et adapter les applications vers des architectures microservices · Concevoir et développer des services backend Java avec l’écosystème Spring · Contribuer à la mise en place et à l’amélioration des pipelines CI/CD · Automatiser les déploiements via Infrastructure as Code (Terraform / Ansible) · Garantir la performance, la résilience et la sécurité des applications · Collaborer étroitement avec les équipes DevOps, Cloud, Architecture et Sécurité · Participer aux cérémonies Agile (Scrum, refinement, rétrospectives) 🛠 Compétences recherchées · Java / Spring Boot / Spring Data / Spring Security · API REST et architectures microservices · Linux & scripting (Bash / ksh) · CI/CD (GitLab) · Infrastructure as Code : Terraform / Ansible · AWS (obligatoire) – compute, networking, IAM, monitoring · Connaissance DevSecOps et bonnes pratiques de sécurité ⭐ Un plus · Expérience avec OVH Cloud · Expérience dans les projets de migration vers le cloud · Connaissance des environnements financiers ou fortement réglementés 📍 Profil recherché · Senior plus de 10 ans d’expérience) · Forte expérience Java backend + Cloud · À l’aise dans les environnements Agile et DevOps
Freelance

Mission freelance
Data Analytics– Power BI (Pilotage Financier & RH)

Atlas Connect
Publiée le
Analyse financière
BI
Comptabilité

3 mois
480-560 €
Paris, France
Dans le cadre d’un projet stratégique à fort impact, notre équipe Data Analytics renforce ses capacités pour concevoir un outil de pilotage financier et RH qui deviendra la référence au niveau groupe. Ce projet structurant est mené en collaboration directe avec le CFO, la DRH et le contrôle de gestion. 🧩 Missions Rattaché(e) à l’équipe Data Analytics, vous interviendrez sur : 🔹 Conception & déploiement Concevoir et développer un dashboard Power BI avancé Mettre en place un outil de pilotage consolidé : P&L, budgets, forecasts Structurer un modèle de données robuste et scalable 🔹 Data engineering & modélisation Intégrer des données multi-sources (comptabilité, RH, paie) Concevoir des modèles de données complexes Développer des mesures avancées en DAX Garantir la qualité, la cohérence et la fiabilité des données 🔹 Collaboration métier Travailler en lien direct avec : CFO DRH Contrôle de gestion Traduire les besoins métiers en indicateurs actionnables Accompagner les utilisateurs dans la prise en main de l’outil
Freelance

Mission freelance
Consultant Senior (H/F) – Stream Lead Master Data SAP FMS

HOXTON PARTNERS
Publiée le
Master Data Management (MDM)

6 mois
Paris, France
Projet international de transformation SAP, visant la migration d’une solution existante vers SAP Fashion Management (SAP FMS) dans un environnement SAP S/4HANA , avec de forts enjeux de structuration de la Master Data et de déploiement d’un core model . Missions principales Piloter le stream Master Data dans le cadre de la migration vers SAP FMS Contribuer à la définition et au déploiement du core model Master Data Concevoir et sécuriser les processus de création et gestion des articles Prendre en charge la Master Data Production (articles, gammes, nomenclatures) Piloter les activités de migration de données (mapping, reprise, contrôles) Coordonner les flux d’intégration avec des systèmes tiers via des solutions de type middleware
Freelance

Mission freelance
Lead Product Owner – Securities Research Data/AI Platform H/F

Comet
Publiée le
Azure
Bloomberg
IA

128 jours
900-1k €
Paris, France
Nous recherchons un(e) Lead Product Owner pour piloter la conception et la livraison à l’échelle industrielle de produits innovants, centrés sur l’IA et les données, pour la franchise de Recherche en Valeurs Mobilières côté vente (sell-side). Vous orchestrerez une équipe interfonctionnelle (Analystes de Recherche, Ventes, Corporate Access, Data Scientists/Ingénieurs, UI/UX et ingénieurs full-stack) afin de créer des services sécurisés, multilingues et prêts pour le client, améliorant la portée, la qualité et la monétisation de la recherche. Périmètre du produit : trois piliers 1. Production augmentée par l’IA pour les Analystes de Recherche Génération et assemblage de documents de recherche multilingues avec supervision humaine. Capacités clés : ingestion et templating de documents, traduction/adaptation du ton, sourcing de données, suggestions de mise à jour de modèles, résumés factuels avec citations et validation. 2. Engagement client augmenté par l’IA pour les Ventes Agents intégrés pour réduire le temps de préparation et augmenter le temps consacré aux clients et à l’analyse à forte valeur ajoutée. Capacités clés : récupération sécurisée de données internes et externes, requêtes conversationnelles, préparation ciblée de matériel client, automatisation du flux de capture d’alpha, intégration avec CRM et outils collaboratifs. 3. Monétisation & expérience client Transformation de la propriété intellectuelle en revenus récurrents via différents formats : ensembles de données, abonnements, contenus générés par IA (chatbots, podcasts, vidéos, etc.). Capacités clés : empaquetage de données, génération de contenu multi-format, analyse de l’utilisation et de la monétisation, distribution conforme aux droits. Contexte technologique : Modernisation d’une plateforme mixte : systèmes existants (CRM, portail web de Recherche) et nouvelles solutions IA (Azure RAG, Microsoft Copilot, plateformes de données et IA). Livraison de produits RAG/LLM/Agents à l’échelle avec garde-fous, observabilité et contrôle des coûts. Responsabilités clés : Définir la feuille de route 3 ans et quantifier la valeur via OKRs. Concevoir des expériences RAG/agents, automatiser les flux, sécuriser les données et superviser la qualité humaine. Intégrer les flux de données, assurer la conformité des licences et collaborer avec les équipes Juridique/Conformité. Gérer le backlog, rédiger les PRD, définir les SLOs, livrer de manière itérative et soutenir le lancement des offres client.
Freelance

Mission freelance
Chef de projet Senior Migration Sharepoint data

Mon Consultant Indépendant
Publiée le
SharePoint

12 mois
640-680 €
Paris, France
Bonjour, Nous recherchons un Project Manager SharePoint senior + de 10 ans d'expérience pour piloter une migration complexe déjà engagée et sécuriser les prochaines étapes critiques. La mission couvre • la finalisation de la migration de données SharePoint (On-Prem & Online/Teams vers une cible On-Prem unique) • la préparation et le pilotage de l’ upgrade vers SharePoint Subscription Edition Environnement sensible, à forts enjeux métiers et de sécurité, avec une attente forte de maîtrise du delivery et de réassurance des parties prenantes Profil recherché : • Chef de projet senior/expert (10+ ans) expert SharePoint On-Prem & Online • Solide track record sur des migrations SharePoint complexes , idéalement en contexte de souveraineté / sécurité • Capacité à reprendre un projet en cours, structurer, cadrer et piloter les équipes techniques • Forte compétence en change management et communication avec les équipes métiers • F rançais / anglais , présentiel majoritaire • Démarrage ASAP , mission 6 mois
Freelance
CDI

Offre d'emploi
Tech Lead IAM - Data - Chiffrement (H/F)

5COM Consulting
Publiée le
Grafana
Keycloak
Red Hat

3 ans
Paris, France
Nous recherchons un(e) Tech Lead expérimenté(e) pour piloter la conception et l'évolution des solutions IAM, Data et Chiffrement au sein d'une équipe Engineering Platform. Vous serez le garant de la qualité, de la sécurité et de la conformité des solutions délivrées, tout en accompagnant la transformation technique et organisationnelle. Vos missions principales Management & Organisation Encadrer et faire monter en compétences les équipes (collaborateurs internes et prestataires) Définir la roadmap technique et prioriser les initiatives stratégiques Animer les rituels Agile (Scrum/Kanban) et participer aux comités de pilotage Assurer la coordination transverse avec les équipes projets, production et sécurité Promouvoir les bonnes pratiques DevSecOps et la culture d'amélioration continue Expertise Technique Maîtriser les protocoles d'authentification : SAML v2, OpenID Connect, OAuth2, WebAuthn, FIDO2 Concevoir et superviser l'intégration de solutions IAM dans des environnements Cloud (AWS, Azure, GCP) Définir les standards de chiffrement et de gestion des clés/certificats Orienter les développements en Java/Spring Boot/JEE selon les principes Clean Code Superviser l'optimisation des bases PostgreSQL et garantir la haute disponibilité (PCA/PRA) Contrôler la conformité des pipelines CI/CD (GitHub Actions, Jenkins) Mettre en place l'observabilité (Grafana, Prometheus, Loki)
Freelance
CDI

Offre d'emploi
Expert IBM Infosphere Data Replication (IIDR)

VISIAN
Publiée le
IBM Cloud

1 an
40k-45k €
400-700 €
Paris, France
Descriptif du poste Dans le cadre du programme qui vise à construire une Data Platform intégrée, la réplication des données AS/400 vers le Data Hub est un enjeu clé. IBM Infosphere Data Replication (IIDR) est l'outil en place pour assurer la synchronisation des tables de l'AS/400 (on-premise) vers PostgreSQL (Cloud). Actuellement, le périmètre des tables répliquées est limité, mais il s'étendra significativement en 2025, avec un objectif de réplication en near-sync. Toutefois, plusieurs défis doivent être adressés : Incidents en production non résolus, liés soit à la configuration existante de IIDR, soit à des instabilités sur la base PostgreSQL. Problèmes de doublons issus de l'AS/400, nécessitant des stratégies de gestion des clés et des identifiants uniques. Difficultés de réplication des tables volumineuses, où les mécanismes standards ne permettent pas d'assurer une synchronisation efficace.
Freelance

Mission freelance
Product Manager / Product Owner technique – API & Data Platform (H/F)

TEOLIA CONSULTING
Publiée le
API
API REST
JSON

12 mois
400-550 €
Paris, France
Dans le cadre d’une mission à fort enjeu sur un produit cœur de système d’information , nous recherchons un(e) Product Manager / Product Owner à forte culture technique , capable d’intervenir sur une plateforme transverse exposant des services via API . Vous intégrerez un environnement complexe, structurant et à forte volumétrie de données, impliquant de nombreux consommateurs (équipes internes, produits aval, partenaires). Votre rôle consistera à piloter la vision produit , à structurer les flux de travail et à garantir la valeur délivrée, en étroite collaboration avec les équipes de développement et les parties prenantes techniques. Vous interviendrez notamment sur : Le pilotage produit de services exposés via API REST La gestion et l’évolution de modèles de données complexes Le cadrage, la priorisation et la structuration du backlog Le recueil de besoin via des approches de discovery (interviews, mapping, analyse d’usages) L’amélioration continue de l’organisation produit (flux, indicateurs, visibilité) L’adaptation des pratiques agiles aux contraintes opérationnelles (Kanban, flux continus, feature teams) Ce poste nécessite une forte proximité avec les équipes techniques et une réelle capacité à dialoguer avec des développeurs backend et data sur des sujets structurants.
Freelance

Mission freelance
BA Data Banque / Crédit - Paris

Net technologie
Publiée le
Data analysis
Reporting

6 mois
Paris, France
🚀 Contexte : Dans le cadre d’un programme international stratégique, nous recherchons un(e) BA pour accompagner la transformation front-to-back de la chaîne de Crédit et renforcer l’équipe Reporting / Data. ❇️ Missions : Le rôle couvre l’analyse des besoins Métiers, la définition des solutions fonctionnelles, la coordination avec des équipes IT internationales, le suivi des phases de build, tests et mises en production, dans un contexte Agile, à forts enjeux Business & IT.
Freelance

Mission freelance
Expert Data Streaming Kafka

JobiStart
Publiée le
Apache Kafka
Spark Streaming

3 ans
400-550 €
Paris, France
Expert en systèmes distribués, votre mission est de concevoir, déployer et administrer les clusters Apache Kafka au cœur de l'échange de données en temps réel de la banque. Vous intervenez sur la configuration fine des brokers, la gestion des topics, des schémas (Schema Registry) et des partitions pour garantir une haute disponibilité et une tolérance aux pannes maximale. Vous accompagnez les équipes de développement dans l'implémentation des producteurs et consommateurs, ainsi que dans l'utilisation de Kafka Streams ou ksqlDB pour le traitement de flux. Vous assurez le monitoring proactif des performances (latence, débit), la sécurité des flux (SSL/SASL/ACLs) et le troubleshooting complexe en environnement de production critique. Vous êtes le référent sur les stratégies d'archivage et de réplication inter-sites.
Freelance

Mission freelance
Proxy Product Owner Data (RUN & BUILD) – Full Remote

Signe +
Publiée le
Snowflake

12 mois
330-340 €
Paris, France
Proxy Product Owner Data – RUN focus / BUILD focus Contexte Mission au sein d’un datalake cybersécurité (Security Analytics) dans un environnement grand compte. Le client a ouvert la possibilité de réaliser la mission en full remote afin d’élargir le sourcing et sécuriser un profil compétent. Durée 6 mois minimum (renouvelable) Mode de travail Full remote Responsabilités – RUN focus Piloter la transition Build → Run et stabiliser l’exploitation Gérer et prioriser le backlog incidents ServiceNow (arbitrage risques / impacts métier) Analyser, coordonner et suivre les incidents avec les équipes de développement Communiquer auprès des utilisateurs et parties prenantes Rédiger des SOP (Standard Operating Procedures) pour les incidents récurrents Mettre en place le monitoring et l’alerting (fraîcheur, qualité, disponibilité des données) Garantir la performance et la fiabilité opérationnelle des solutions data Contribuer au support et à la montée en compétence des utilisateurs (Power BI, modèles de données) Responsabilités – BUILD focus Participer aux cérémonies agiles et assister le Product Owner Enrichir le backlog Jira (spécifications data, règles de transformation, critères d’acceptation) Réaliser les UAT avec les parties prenantes cybersécurité Analyser les sources de données nécessaires à la construction des KPI Optimiser la logique de calcul des indicateurs Concevoir les modèles de données sous Snowflake et Power BI Superviser l’orchestration et les planifications des flux Maintenir la documentation fonctionnelle Gérer et opérer le backlog BUILD Compétences requises Forte expérience sur des projets Data / BI Maîtrise de Azure Data Factory, Snowflake, Power BI Très bon niveau SQL (analyse, contrôle, optimisation) Expérience confirmée en tant que Product Owner / Proxy PO en environnement Agile (Scrum, Jira) Bonne culture IT générale (API, réseaux, protocoles) Anglais courant obligatoire Soft skills Excellente communication et capacité de vulgarisation Forte autonomie (contexte full remote) Capacité d’arbitrage et sens du résultat Aisance avec des environnements complexes et contraints (cybersécurité)

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

465 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous