Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 425 résultats.
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
Big Data
Cloudera
Data Lake

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Le client, dans le cadre du développement et de la maintenance de sa plateforme Big Data, recherche un Développeur Big Data expérimenté (H/F) avec au moins 5 ans d’expérience en environnement Data. La mission se déroule au sein de l’équipe Big Data, chargée de l’alimentation, de l’évolution et de l’optimisation du Data Lake sous Cloudera Hadoop. L’objectif principal est de concevoir, faire évoluer et maintenir les traitements d’alimentation pour assurer la qualité, la performance et la maintenabilité des solutions. Le consultant intervient dans un contexte de production exigeant, avec de forts enjeux de fiabilité et de respect des délais. Missions principales : Développement & évolution du Data Lake : Gérer les évolutions des flux et des données à intégrer Faire évoluer les développements existants d’alimentation Maintenir les traitements d’ingestion et de transformation Concevoir des extractions de données pour répondre aux besoins métiers Stack technique : Cloudera Hadoop, Hive, Impala, Spark, Python, SQL, Shell, Linux, VBA, Jupyter Expertise technique & structuration : Rédaction des spécifications techniques Fourniture de requêtes SQL de référence Revue de code Structuration et pilotage via JIRA Documentation des processus et accompagnement des utilisateurs Encadrement de profils juniors (alternants, stagiaires) Performance & optimisation : Optimiser les traitements et requêtes Améliorer la performance et l’exploitabilité Contribuer à la maintenabilité globale Réaliser du reverse engineering dans une architecture héritée complexe Support & accompagnement : Assurer le support de niveau 2 Faire respecter les bonnes pratiques Communiquer clairement avec différents interlocuteurs (développeurs, utilisateurs, clients) Gouvernance & conformité : Veiller au respect des modèles de données Collaborer avec la Direction Technique et la Gouvernance de la Donnée pour faire évoluer les standards
Freelance
CDI

Offre d'emploi
Acheteur Market Data

OBJECTWARE
Publiée le
Market data

6 mois
Paris, France
Dans le cadre de projets stratégiques chez nos clients grands comptes (banque, asset management, services financiers), nous recherchons un(e) Acheteur(se) Market Data expérimenté(e) pour intervenir sur des enjeux à forte valeur ajoutée. 🎯 Vos missions Au sein des équipes achats / market data, vous interviendrez notamment sur : La gestion des fournisseurs de données de marché (éditeurs, vendors) Le pilotage des appels d’offres (France et/ou international) La négociation contractuelle et tarifaire Le suivi des renouvellements de contrats La maîtrise des dépenses Market Data La coordination avec les équipes métiers, juridiques et IT La contribution aux projets d’optimisation et de conformité (RGPD, gouvernance data)
CDI

Offre d'emploi
Administrateur Système Linux H/F

Audensiel
Publiée le
Administration linux
Administration système
Administration systèmes et réseaux

35k-55k €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Au sein de l'équipe systèmes, pour un client opérant dans l‘industrie du voyage, vous intervenez sur l'administration, l'exploitation et l'évolution des infrastructures Linux. Vos principales responsabilités sont : - Administrer et maintenir les services systèmes Unix/Linux en conditions opérationnelles - Déployer, exploiter et faire évoluer les infrastructures (stockage, virtualisation, conteneurs) - Gérer des services d'infrastructure et des outils collaboratifs (messagerie, GitLab, Nextcloud, monitoring, certificats) - Contribuer au support utilisateurs et à l'amélioration continue des performances, de la sécurité et de la fiabilité des systèmes
Freelance

Mission freelance
Ingenieur Data RH

Comet
Publiée le
Azure Data Factory
BI
Databricks

12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Freelance

Mission freelance
Senior Data Analyst

SILAMIR
Publiée le
Tableau Desktop
Tableau software

1 an
Paris, France
Vous intervenez en tant que référent analytique auprès des équipes Métiers (Produit, Business Development, Sales, Marketing, Fraude, etc.). Votre rôle consiste à assurer le suivi de la performance, produire des analyses à forte valeur ajoutée et accompagner les équipes dans leurs prises de décision. Vos missions : Piloter la performance business à travers le suivi et l’analyse des KPI stratégiques Réaliser des analyses ad hoc afin de répondre aux problématiques métiers Collaborer avec les équipes Métiers pour mesurer l’impact des évolutions et identifier des opportunités d’optimisation Mettre à jour, fiabiliser et améliorer les dashboards existants (Tableau, Metabase…) Définir et suivre les indicateurs de performance pertinents avec les parties prenantes (Business, Sales, Product) Contribuer activement à la diffusion d’une culture data et aux bonnes pratiques analytiques
Freelance

Mission freelance
Consultant Audit Réseau LAN H/F

HAYS France
Publiée le
Audit
Cisco
LAN

10 jours
600-630 €
Saint-Sauveur, Hauts-de-France
Notre client, est une entreprise dynamique dans le secteur Fabrication de matériaux en bois, recherche un consultant expert en réseaux pour réaliser un audit complet de leur infrastructure LAN dans un objectif de performance et de sécurité. Missions principales : Réaliser un audit complet du réseau LAN et établir un schéma d'architecture (topologie physique et logique). Vérifier la configuration des équipements réseau (routeurs, switches, bornes Wi-Fi). Identifier les anomalies, incohérences et risques (performance et sécurité). Proposer des recommandations pour optimiser et sécuriser le réseau. Périmètre technique de la mission : Routeurs : configuration, routage, gestion des firmwares. Switches : VLAN, trunking, spanning-tree, QoS. Bornes Wi-Fi : gestion des SSID, sécurité (WPA2/WPA3), couverture. Câblage et topologie : vérification des liens, redondance des connexions. Sécurité réseau : segmentation, filtrage, contrôle des accès.
CDI

Offre d'emploi
Chef(fe) de projet Master Data

adbi
Publiée le
BigQuery
Looker Studio
SQL

45k-55k €
Île-de-France, France
Contexte de la mission Au sein du Pôle DATA de la DSI, le domaine Gouvernance des Données assure le pilotage des données de référence de la Business Unit. Cette gouvernance sur notre solution de Master Data Management (MDM) développée en interne, qui centralise et administre l'ensemble du référentiel d'entreprise : organisation, centres opérationnels, matières, matériels, activités, sociétés, etc. Nous recherchons un/une chef(fe) de projet Master Data. Objectifs et livrables Gestion et administration du référentiel d'entreprise (50%) Outil principal : REFMET Traiter les demandes utilisateurs dans les délais convenus Accompagner et animer le réseau des référents dans l'appropriation des outils et workflows Maintenir la cohérence et l'intégrité du référentiel de données Amélioration de la qualité des données (30%) Outils : BigQuery, Looker Studio, Google Sheets Réaliser des analyses croisées multi-sources pour identifier les anomalies et incohérences Définir et prioriser les plans d'action qualité en collaboration avec les métiers Évaluer les impacts sur les systèmes consommateurs et coordonner les actions correctives Planifier et synchroniser les interventions avec l'ensemble des parties prenantes Conduite de projets d'amélioration continue (20%) Recueillir et analyser les besoins d'évolution exprimés par le Business Proposer des solutions innovantes et les soumettre à validation hiérarchique Piloter les projets validés de bout en bout (cadrage, spécification, réalisation, déploiement) LIVRABLES ATTENDUS Documentation Spécifications fonctionnelles et recette des évolutions (REFMET) Comptes-rendus de réunions et présentations (Google Workspace) Développements Requêtes SQL (BigQuery) Tableaux de bord (Looker Studio) Accompagnement Animation d'ateliers avec les parties prenantes Support à la conduite du changement, guides utilisateurs et formations
Freelance

Mission freelance
SAP MASTER DATA

KUBE Partners S.L. / Pixie Services
Publiée le
SAP

6 mois
Paris, France
Je cherche activement un consultant SAP Master Data,côté production, dans le cadre de la construction d'un core modele. Pour la phase de cadrage, design et conception : démarrage ASAP Tâches Base article et non article Fiche info achats Fiche info fournisseurs Nomenclature production Gamme de production Costing Migration avec interfaces PLM vers SAP basées sur des Idocs et LSMW Lien avec metier Leadership Compétences requises : Master Data SAP (min 5 ans exp) Expérience conception générale indispensable, paramétrage, custo Orienté best practice Langues : français et anglais mandatory
Freelance

Mission freelance
Product manager Référentiel & Data (5-10 ans)

ABSIS CONSEIL
Publiée le
Safe

3 ans
470-570 €
Maisons-Alfort, Île-de-France
Nous recherchons pour notre client en assurance un Product Manager intervenant sur deux périmètres clés : Référentiel Data / Infocentres Votre rôle s’inscrit dans un environnement SAFe , en interaction avec différentes équipes du train et potentiellement d’autres trains de la DSI. Vous contribuerez également à l’intégration de l’IA , notamment des IA agentiques , au service de la performance collective. Vos principales responsabilités Définir une vision produit claire, durable et alignée sur les besoins métier et utilisateurs. Construire et maintenir les roadmaps (Solution & PI). Gérer et prioriser le backlog produit (features, enablers). Collaborer avec les équipes métier, techniques et agiles pour garantir la cohérence des solutions . Piloter des projets transverses , tels que la migration DataStage. Recueillir et analyser les besoins clients pour guider les évolutions produits. Promouvoir et intégrer l’IA dans les pratiques opérationnelles. Compétences attenduesCompétences métier Maîtrise de la méthodologie SAFe (certification PM/PO souhaitée). Expérience en mise en œuvre de SI , conception fonctionnelle, animation d’ateliers, gestion de backlog. Connaissance de la modélisation des données . Pratique de l’ IA dans un contexte opérationnel. Compétences techniques Outils : Jira , Confluence , Suite Office. Bases de données & requêtage SQL . Tests : rédaction Gherkin , outils Selenium , Xray . Connaissance de l’environnement On Premise .
Freelance
CDI

Offre d'emploi
Architecte Data AWS

KLETA
Publiée le
Amazon Redshift
AWS Cloud

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data AWS pour définir et piloter l’évolution des plateformes de données cloud natives sur Amazon Web Services. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies AWS tels que S3, Glue, Redshift, Athena, EMR, Kinesis ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur AWS.
CDI
Freelance

Offre d'emploi
Techlead Data Engineer | AWS | Databricks | Big Data

Hexateam
Publiée le
AWS Cloud
Databricks
Python

36 mois
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
CDI

Offre d'emploi
Développeur Talend / Data Analyst H/F

ADSearch
Publiée le

40k-50k €
Villeneuve-Loubet, Provence-Alpes-Côte d'Azur
[En Bref] CDI - Développeur Talend / Data Analyst H/F - Cagnes-sur-Mer - Télétravail 3 jours/sem Je recrute pour une entreprise historique qui a su évoluer avec son temps, un Développeur Talend / Data Analyst H/F pour accompagner sa transformation data-driven. TON POSTE Avec pour objectif de structurer, analyser et valoriser la donnée au service des métiers, au côté d'une équipe spécialisée en analyse de données et Business Intelligence, tu participeras à l’ensemble du cycle de vie de la donnée, en lien étroit avec les équipes métiers, IT, data et BI. Ton rôle consistera à transformer la donnée brute en indicateurs fiables et exploitables pour le pilotage et la prise de décision. En claire : - Accompagner les équipes métiers dans la formalisation de leurs besoins décisionnels, - Analyser les données issues de différentes sources internes et externes - Concevoir, développer et optimiser des tableaux de bord et rapports à forte valeur ajoutée (Power BI, SAP BO WebI), - Participer à la modélisation et à la transformation des données via des processus ETL (notamment SAP BODS), - Contribuer aux projets de fiabilisation, de gouvernance et d’évolution du datawarehouse, - Suivre l’avancement des projets data et assurer le reporting associé, - Participer à l’amélioration et à l’industrialisation des méthodes et outils décisionnels, - Réaliser les évolutions dans le respect des normes et standards de développement en place.
Freelance

Mission freelance
Business Analyst Data & Paiements | SQL Expert | Power BI | Agile

CAT-AMANIA
Publiée le
Azure
Confluence
Google Cloud Platform (GCP)

6 mois
470-530 €
Île-de-France, France
Nous recherchons un Business Analyst Data pour rejoindre une Squad Data au sein d'un grand groupe financier de premier plan. Votre mission principale sera de piloter la chaîne de valeur de la donnée de paiement, de la collecte à la restitution décisionnelle. Vos missions : Recueillir et analyser les besoins des équipes métiers et des autres squads data. Traduire ces besoins en spécifications fonctionnelles et techniques détaillées (User Stories) dans un environnement Agile. Assurer la qualité et l'intégrité des flux de données de paiement via des requêtes SQL avancées. Concevoir, générer et diffuser des reportings et tableaux de bord via Power BI pour le pilotage des activités. Réaliser les tests de recette des traitements d'intégration et de transformation de données. Accompagner et former les utilisateurs finaux dans l'exploitation de leurs données de paiement. Profil recherché : Expertise confirmée en SQL (indispensable pour l'exploration et la validation de données). Solide connaissance du domaine des Moyens de Paiement ou de la Monétique. Maîtrise des outils de Data Viz (Power BI) et de la rédaction de documentation projet (Jira, Confluence). Expérience en environnement Big Data ou Cloud (Azure, GCP). Capacité à travailler en méthodologie Agile (Scrum). Excellente communication et capacité à vulgariser des sujets techniques complexes.
CDI
Freelance

Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F

STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Freelance

Mission freelance
Data Analyst experimenté - Nantes

VISIAN
Publiée le
SQL

3 ans
400 €
Nantes, Pays de la Loire
Contexte Au sein d’une entité Data d’un grand groupe bancaire, la mission s’inscrit dans une équipe chargée de la conception, de la fabrication et de la mise à disposition de jeux de données à destination de multiples entités internes. L’activité s’appuie sur plusieurs plateformes décisionnelles et entrepôts de données et s’exerce dans un cadre réglementaire et sécuritaire strict (protection des données, conformité, éthique d’usage). L’équipe intervient notamment pour des besoins d’audit, de conformité réglementaire, d’analyses exploratoires ou de soutien à des projets métiers (innovation, data science, nouveaux produits). Missions Cadrage et analyse des besoins Recueillir et analyser les demandes d’extraction ou de mise à disposition de données Accompagner les utilisateurs dans la formalisation des besoins et des règles de gestion associées Réaliser les analyses d’impact sur les systèmes existants Identifier les sources de données pertinentes et les outils d’extraction adaptés Production et livraison des jeux de données Concevoir et piloter la fabrication de jeux de données ou requêtes d’extraction Garantir la qualité, la cohérence et l’exploitabilité des données livrées Organiser la phase de recette avec les équipes métiers et utilisateurs Contribuer à l’industrialisation de certains cas d’usage Gouvernance, conformité et sécurité Veiller au respect des contraintes réglementaires et de protection des données Mettre en œuvre les contrôles d’accès et d’usage appropriés Collaborer avec les acteurs de gouvernance Data pour valider l’exploitabilité et la diffusion des données Coordination et communication Assurer l’interface avec les entités demandeuses et les parties prenantes internes Animer des ateliers d’étude multi-acteurs Promouvoir l’offre de services de l’équipe et produire les supports associés Mettre en place et suivre les indicateurs de performance du service Capitalisation et documentation Structurer et maintenir la documentation des dossiers traités Contribuer au partage de connaissances et à la montée en compétence collective Environnement technique Bases de données relationnelles et décisionnelles SQL (dont environnements décisionnels) Outils de reporting et de BI Outils d’extraction et de traitement de données Outils de gouvernance et de documentation de la donnée Outils bureautiques avancés Informations complémentaires Mission en environnement fortement réglementé Interactions fréquentes avec des interlocuteurs variés (métiers, data, gouvernance, conformité) Accès à des données sensibles nécessitant le respect strict des procédures de sécurité
CDI
Freelance

Offre d'emploi
Lead Data Engineer Dataiku & Python

OBJECTWARE
Publiée le
Dataiku
Python

3 ans
40k-79k €
400-550 €
Île-de-France, France
Prestations demandées RESPONSABILITES - Conception et implémentation des pipelines de données : • Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). • Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. • Travailler avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. - Industrialisation et automatisation des flux de données et des traitements : • Mettre en place des processus d’industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. • Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. • Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l’exploration à la production, en intégrant les modèles dans des pipelines automatisés. - Gestion des données et optimisation des performances : • Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d’architecture de stockage (raw, refined, trusted layers). • Assurer une surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l’intégrité des jeux de données. - Sécurité et gouvernance des données : • Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. • Travailler en collaboration avec le Data Office pour assurer l’alignement avec les politiques et processus définis. • Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées. COMPETENCES - Expérience confirmée en ingénierie des données : Solide expérience dans la conception, la mise en œuvre et l’optimisation de pipelines de données. - Maîtrise des technologies de traitement de données : Expertise dans l’utilisation d’outils et technologies tels que ELT, Spark, SQL, Python, Dataiku, et la gestion de data warehouses et data hubs. - Compétence en sécurité et gouvernance des données : Connaissance des enjeux de sécurité, de conformité réglementaire (GDPR), et de gouvernance des données, avec une capacité à implémenter des solutions adéquates. - Compétences en automatisation et industrialisation : Capacité à automatiser et industrialiser les flux de données et les traitements afférents, en assurant la transition fluide des projets data science vers la production. - Maîtrise de l’anglais : La maîtrise de l’anglais est indispensable pour interagir avec des parties prenantes

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6425 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous