Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 7 297 résultats.
CDI

Offre d'emploi
Expert.e Plateforme Data F/H

METSYS
Publiée le
Amazon DynamoDB
Amazon Elastic Compute Cloud (EC2)
Apache Airflow

49k-54k €
Lille, Hauts-de-France
Pour un de nos clients grands-comptes, de très forte renommée dans son secteur d'activité, nous recherchons un.e Expert.e Plateforme Data pour un démarrage dès que possible à Lille. Vous serez là pour soutenir notre Client sur deux sujets : Accompagnement sur la partie Compute & BDD (EC2, Druid, RDS) : Faire évoluer l'offre de compute basée sur Amazon EC2 et automatiser le déploiement, la gestion et la configuration de leurs bases de données ; Gestion des Clusters BDD : Assurer le déploiement, le MCO et l'optimisation de leurs clusters Druid et de leurs instances Elasticsearch (ELS) ; Services Managés : Administrer et optimiser les instances Amazon Aurora (RDS) et les tables DynamoDB ; Mise à Disposition : Mettre à disposition de nouvelles ressources (BDD, Serveurs) en self-service pour les projets Data ; MCO & Support N3 : Assurer le Maintien en Condition Opérationnelle (MCO) et apporter un support de niveau 3 expert sur les problématiques de performance des bases (Aurora, DynamoDB) et d'infrastructure serveur (EC2, systèmes d'exploitation) ; Sécurité & Observabilité : Garantir la conformité de la sécurité des serveurs et des clusters (patching, configuration OS) et ajouter/maintenir les éléments d'observabilité critiques (Monitoring, Alerting) pour toutes leurs bases de données. Leadership Technique Talend Expertise Talend TIS on Premise: Agir comme Tech Lead Talend : Être le référent technique et le garant des bonnes pratiques pour l'ensemble des équipes utilisant ou migrant depuis Talend. Être capable de faire des audits, des revues de code et des recommandations pour garantir la qualité, la performance des développements Talend Conduite du changement Mener l'intégration des composants Talend (Jobs Servers, TAC) dans l'environnement DevOps cible (CI/CD, Monitoring, Conteneurisation, Orchestration Airflow). Travailler dans un contexte international
CDD

Offre d'emploi
INGENIEUR SUPPORT DATA H/F

PROMAN EXPERTISE
Publiée le
PLM (Product Lifecycle Management)

6 mois
41k-55k €
Marignane, Provence-Alpes-Côte d'Azur
Intégré à une équipe de 8 personnes, votre contribuez à l’amélioration des outils informatiques à disposition des bureaux d’études et notamment Windchill. Dans ce cadre, vos missions sont les suivantes : Comprendre les besoins métiers Coordonner les modifications nécessaires suite aux remontées des équipes techniques (correctifs, bugs, …) Rédaction de la documentation technique associée Maintien des outils / interfaces existants Support technique à l’équipe sur l’activité de contrôle opérationnel de données (documentation, équipements, …) Participation aux phases de conduite du changement. Pour mener à bien cette mission, vous êtes amené(e) à travailler en collaboration avec les équipes projets, bureaux d’études, fonctionnelles.
CDI

Offre d'emploi
Administrateur Systèmes & Réseaux (H/F)

FED SAS
Publiée le

40k-45k €
France
Fed IT, cabinet entièrement dédié aux recrutements spécialisés sur les métiers de l'informatique (Infra, Data, Développement, MOA, MOE, Management), recherche pour un de ses clients dans le secteur de la santé basé à Paris, un ou une : Administrateur Systèmes & Réseaux (H/F). Le poste est à pourvoir dans le cadre d'un CDI chez le client final. Au sein de la Direction des Systèmes d'Information (DSI), vous aurez la charge du MCO des infrastructures ainsi que de la conduite de divers projets. A ce titre, vos principales missions seront : - Maintenir et faire évoluer l'infrastructure systèmes et réseaux, dans un objectif de qualité, de productivité et de sécurité globale, s'assurer du fonctionnement optimal des serveurs, des liaisons et des équipements réseaux ; - Assurer le suivi et la remédiation des incidents systèmes, réseaux, applicatifs et sécurité, traiter les demandes complexes (niveau 2) ; - Attribuer les droits d'accès aux solutions en fonction des profils ; - Participer à l'exploitation des environnements applicatifs systèmes en production (Linux et Microsoft), des équipements réseaux & sécurité associés ; - Gérer les projets liés au Système d'Information, accompagner les métiers dans la rédaction de l'expression des besoins (reporting ou rapports), contribuer au paramétrage des solutions métiers (Sage, Jira, Uipath, etc) et gérer les changements ; - Configurer les solutions en conformité avec les normes et standards définis par les experts du domaine, effectuer des revues régulières des règles et paramétrages mis en place - Elaboration des documents d'exploitation et suivi de la documentation du système ; - Veiller au bon fonctionnement de la remontée des logs et des alertes ; - Mise en conformité du Système d'Information en fonction de la PSSI VIAMEDIS et des recommandations des audits de sécurité...
Freelance

Mission freelance
Data Scientist Python, Tensorflow Nantes/st

WorldWide People
Publiée le
Python

12 mois
350-370 €
Nantes, Pays de la Loire
Data Scientist Python, Tensorflow Nantes Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques. Prestation de Data Scientist Objectif : •Transformer des données brutes en informations exploitables grâce à des modèles statistiques avancés, des algorithmes de machine learning et des analyses prédictives. •Exploiter, analyser et évaluer la richesse de données, structurées ou non, pour établir des scénarios permettant de comprendre et anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. •Identifier des tendances ou des corrélations cachées dans les données. •Créer des modèles prédictifs ou des solutions automatisées basées sur des algorithmes. •Aider à prendre des décisions stratégiques basées sur les données. Tâches : •Valorise les gisements de données. •Travaille sur des périmètres métiers ciblés (cas d’usage) pour explorer et exploiter des flux de données issus de la data platform ou d’autres sources (dans ce cas il évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du métier). •Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les données à consolider, modifier, rapatrier, externaliser, internaliser. •Intervient de façon plus intégrée en industrialisant ses réalisations dans la chaine technologique de la data platform et/ou les intègre dans le système d’information du métier. •Conçoit des modèles statistiques et/ou d’apprentissage automatisé. •Compare et évalue différents modèles ou méthodes de calcul et anticipe les avantages et inconvénients dans un environnement métier. •Assure la veille en recherche & innovation pour introduire de nouvelles approches d’analyse et de modélisation des données. Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques.
Freelance
CDI
CDD

Offre d'emploi
🚀 Data Engineer / Architecte Data Senior

ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Data analysis
PySpark

3 ans
32k-70k €
150-650 €
Saint-Denis, Île-de-France
Dans le cadre d’une mission stratégique auprès d’un grand acteur du secteur des services digitaux, ASAP Technologies recherche un(e) Data Engineer / Architecte Data Senior . Vous interviendrez au sein d’un pôle Data Services pour accompagner la conception, l’industrialisation et l’évolution d’une plateforme Lakehouse à grande échelle, dans un environnement cloud moderne et exigeant. 🎯 Vos missions En tant qu’Architecte Data Senior, vous jouerez un rôle central dans la structuration et l’optimisation des solutions Data. 🏗 Architecture & Modélisation Concevoir et faire évoluer une architecture Lakehouse Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold) Modéliser les données et optimiser la performance des pipelines ⚙️ Développement & Industrialisation Concevoir, développer et optimiser des pipelines de données à grande échelle Mettre en œuvre des flux batch , streaming et ingestion via API Développer et industrialiser les pipelines avec DBT Spark et Iceberg Orchestrer les workflows ETL/ELT via Airflow Déployer et maintenir les pipelines dans un environnement Cloud (AWS ou équivalent) Mettre en œuvre l’Infrastructure as Code via Terraform Exécuter les traitements dans des environnements conteneurisés ( Docker / Kubernetes ) 🔎 Qualité, Sécurité & Performance Garantir la disponibilité, la supervision et l’observabilité des traitements Définir et implémenter les règles de qualité des données (tests, contrôles automatisés) Documenter architectures, pipelines et règles métier Assurer la conformité réglementaire (RGPD) Participer à la gestion des incidents et à l’amélioration continue 🤝 Leadership & Expertise Accompagner des profils juniors Être force de proposition sur les choix techniques Faire le lien entre enjeux métiers et architecture data
Freelance

Mission freelance
Administrateur Systèmes & Réseaux Linux (H/F)

Link Consulting
Publiée le
Ansible
Docker
Proxmox

12 mois
400-500 €
Toulouse, Occitanie
Notre client est à la recherche de son futur Administrateur Systèmes & Réseaux Linux (H/F) pour son site de Toulouse en raison d'une croissance de l'équipe IT. Vos missions : Intégré à une équipe technique à taille humaine, vous devrez : \- Administrer, configurer et durcir les serveurs Linux en environnement de production \- Gérer l'infrastructure de virtualisation sous Proxmox \- Administrer les environnements Windows Server et l'Active Directory (GPO, gestion des accès) \- Déployer et maintenir les services via Ansible et Docker \- Assurer la gestion du réseau : configuration, supervision et résolution d'incidents \- Mettre en place et administrer une solution de collecte et d'agrégation de logs (SIEM) \- Installer et configurer des serveurs physiques et virtuels \- Contribuer à la politique de sécurité du système d'information Les compétences techniques Linux (administration avancée, durcissement) Windows Server Active Directory Proxmox Docker Ansible Réseau TCP/IP (DNS, DHCP, Firewall, VPN) SIEM / agrégation de logs Scripting Bash
Freelance
CDI
CDD

Offre d'emploi
SOC Cyber Defense Expert (Microsoft O365)

RIDCHA DATA
Publiée le
API
Security Information Event Management (SIEM)
SOC (Security Operation Center)

1 an
Île-de-France, France
Contexte de la mission Dans le cadre du renforcement des capacités de cyberdéfense et de supervision SOC , nous recherchons un Expert Cyber Defense / SOC afin d’accompagner l’intégration de nouveaux périmètres techniques dans le système de supervision sécurité. La mission s’inscrit dans un environnement SOC international , avec des méthodes de travail Agile et une collaboration étroite avec plusieurs équipes techniques. Missions Le consultant interviendra sur les activités suivantes : Intégration et supervision sécurité Intégration de nouveaux périmètres techniques dans le système de supervision du SOC Supervision et monitoring des environnements de sécurité Contribution aux activités d’amélioration et de revue des technologies déjà déployées Architecture et stratégie de détection Définition de la stratégie de détection des menaces (logiques de détection et de réaction) Conception de scénarios de détection selon la méthodologie SOC en place Définition et mise en œuvre de l’architecture de collecte des logs Documentation et gouvernance Rédaction des politiques de journalisation (logging policies) Rédaction des documents d’architecture sécurité Documentation des stratégies de détection et procédures associées Collaboration Agile Participation aux rituels Agile avec les équipes techniques Collaboration avec les différentes parties prenantes travaillant sur le même périmètre technique Contribution à l’évolution et à l’optimisation des processus SOC Livrables attendus Le consultant devra produire les livrables suivants : Documents de politique de journalisation pour chaque technologie concernée Documents d’architecture sécurité Définition de la stratégie de détection pour les technologies intégrées Comptes rendus d’avancement dans le cadre du fonctionnement Agile Environnement technique Le consultant devra posséder une expertise sur les technologies suivantes : Cyber Defense IDS / IPS WAF Proxies de sécurité EDR SOC & SIEM Outils SOC et plateformes SIEM Intégration de technologies dans un SOC Cloud & SaaS Security Monitoring sécurité Microsoft O365 Security Monitoring Collecte et analyse des logs Stratégies de détection et corrélation d’événements Une expérience sur Google SecOps serait un plus. Organisation de la mission Durée : 3 mois renouvelables (lot 1) puis extension possible à 6 mois renouvelables Mode de travail : Organisation hybride Travail possible à distance ou sur site selon les besoins du projet Méthodologie : Agile Collaboration avec équipes pluridisciplinaires
CDI

Offre d'emploi
Data Engineer (H/F)

Link Consulting
Publiée le
Big Data
Python
SQL

38k-40k €
Castelnaudary, Occitanie
Notre client, acteur majeur du secteur de la grande distribution, recherche son futur Data Engineer (H/F) pour son site basé dans l'Aude, à 45 minutes de Toulouse, dans le cadre du développement et de l’évolution de ses outils de pilotage. ### Vos missions Intégré à l’équipe informatique du client, vous devrez : * Centraliser et fiabiliser les données issues des outils métiers (logistique, commerce, marketing, qualité, finance). * Concevoir et déployer des architectures robustes pour collecter, structurer et exploiter des volumes importants de données. * Développer, automatiser et optimiser les flux et traitements de données, notamment depuis l’environnement SAP BusinessObjects via l’ETL BODS. * Garantir la performance, la disponibilité et la pérennité des infrastructures data. * Collaborer étroitement avec les équipes métiers et les Data Analysts afin de fournir des données fiables et exploitables pour la prise de décision. Les compétences techniques * Maîtrise des langages : Python, C/C++, Java, Perl. * Solide expérience des environnements UNIX, Linux, Solaris. * Bonne connaissance des bases de données et du SQL. * Compréhension globale des enjeux Big Data. * Atouts complémentaires : Access, VBA, Google Cloud Platform (GCP).
Freelance
CDI

Offre d'emploi
Data Scientist - Domaine Paiements & Big Data (GCP, Python, ML/NLP)

CAT-AMANIA
Publiée le
Git
Google Cloud Platform (GCP)
Python

6 mois
40k-71k €
500-610 €
Île-de-France, France
Au sein d'un grand groupe bancaire, intégré au pôle Paiement, vous agissez en tant que référent technique et fonctionnel sur des projets décisionnels et Big Data. Vous faites le lien entre les besoins métiers et les solutions technologiques innovantes basées sur l'Intelligence Artificielle et le Cloud. Vos missions principales : Gestion de projet & Analyse : Collecter les besoins auprès des métiers, animer des groupes de travail et rédiger les spécifications fonctionnelles et techniques. Data Engineering & Architecture : Modéliser les données et développer des reportings. Vous assurez l'exploration des données et contribuez à l'architecture sur le Cloud. Data Science & Machine Learning : Concevoir et implémenter des algorithmes de Machine Learning (spécifiquement en classification et NLP - Traitement du Langage Naturel). Delivery & Qualité : Assurer la recette, la mise en production (CI/CD) et garantir la qualité des livrables. Accompagnement : Former les utilisateurs et vulgariser la donnée via une communication visuelle efficace. Environnement Technique & Méthodologique : Cloud & Big Data : Expertise Google Cloud Platform indispensable (BigQuery, Airflow, Vertex AI/Notebook Jupyter). Langages & Libs : SQL, Python (Pandas, Scikit-learn, TensorFlow). DevOps/Delivery : Git, Jenkins, Cloud Build. Méthodologie : Agilité (Scrum, Kanban).
Freelance
CDI
CDD

Offre d'emploi
Développeur SharePoint Online (M365) – Intranet Refonte | Agile Scrum

RIDCHA DATA
Publiée le
Open Shortest Path First (OSPF)
React
SharePoint

1 an
Paris, France
Contexte de la mission Dans le cadre de la refonte d’un intranet international basé sur SharePoint Online (Microsoft 365) , nous recherchons un Développeur SharePoint Online pour intégrer une équipe Agile dédiée à la conception et au développement de nouvelles fonctionnalités intranet. L’objectif du projet est de mettre en place une plateforme intranet moderne, performante et centrée utilisateur , permettant d’améliorer l’accès à l’information, la collaboration et la communication interne dans un environnement international. Le développeur interviendra au sein d’une équipe Scrum et participera activement aux développements, aux intégrations techniques et aux livraisons incrémentales de la plateforme. Organisation de l’équipe (Scrum) Le consultant intégrera une équipe Agile de 4 personnes : 1 Business Analyst Recueil et formalisation des besoins métiers Rédaction des user stories Priorisation fonctionnelle avec le Product Owner 2 Développeurs SharePoint Online Conception et développement des solutions techniques Implémentation SPFx et intégrations M365 1 Scrum Master Animation des rituels Agile/Scrum Facilitation de l’équipe Suppression des obstacles Amélioration continue des processus L’équipe travaille en sprints de 2 semaines , avec : backlog priorisé rituels Scrum (Daily, Sprint Planning, Review, Rétrospective) logique de livraison incrémentale Objectifs du poste Développer et maintenir les fonctionnalités de l’intranet sur SharePoint Online . Participer activement aux livraisons de l’équipe Scrum . Garantir la qualité, la performance et la maintenabilité des développements. Missions principales Développement & intégration Développer des webparts et extensions SPFx (React / TypeScript). Configurer et personnaliser les sites SharePoint Modern . Concevoir et gérer : listes SharePoint types de contenu métadonnées taxonomies Intégrer des données via : Microsoft Graph API APIs externes si nécessaire Mettre en place des automatisations via Power Automate lorsque nécessaire. Travail en mode Agile / Scrum Participer aux rituels Agile : Sprint Planning Daily Meeting Refinement Sprint Review Rétrospective Estimer les user stories et contribuer au découpage technique. Collaborer étroitement avec : le Business Analyst le Scrum Master Respecter la Definition of Done (tests, documentation, qualité). Qualité & industrialisation Appliquer les bonnes pratiques de développement : revues de code tests unitaires optimisation des performances Participer à la mise en place et à l’amélioration des pipelines CI/CD . Documenter les développements réalisés. Contribuer au support applicatif si nécessaire. Environnement technique SharePoint Online (Modern Experience) SPFx (SharePoint Framework) React / TypeScript PnPjs Microsoft Graph API Azure AD App Registration Power Platform Power Automate Power Apps Azure DevOps ou GitHub Compétences requises Compétences techniques Excellente maîtrise de SharePoint Online Expérience confirmée en : SPFx React TypeScript Bonne compréhension de l’écosystème Microsoft 365 Expérience de développement dans un environnement Agile / Scrum Compétences comportementales Esprit d’équipe et collaboration Autonomie et rigueur Sens des responsabilités Capacité à travailler dans un environnement international Langues Anglais professionnel requis
CDI
Freelance

Offre d'emploi
Business Analyst / Data (F/H)

Argain Consulting Innovation
Publiée le
Business Analyst
Data analysis
SAP

1 an
40k-45k €
420-450 €
Pays de la Loire, France
Dans le cadre d’un projet autour des flux data et de l’environnement SAP, nous recherchons un Business Analyst / Data Analyst disposant d’une bonne expertise SAP et Talend . Missions Recueillir et analyser les besoins métiers liés aux flux de données Faire le lien entre les équipes métiers, data et l’équipe SAP Challenger les solutions proposées par l’équipe SAP Participer à la conception et à l’optimisation des flux data Réaliser le paramétrage et le développement Talend Contribuer à la documentation et au suivi des évolutions
CDI

Offre d'emploi
ALTERNANCE - Data Scientist H/F

█ █ █ █ █ █ █
Publiée le
Big Data
Cassandra
Deep Learning

Boulogne-Billancourt, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer Experimenté/Senior

Nicholson SAS
Publiée le
Apache Airflow
Apache Kafka
Apache NiFi

24 mois
400 €
Île-de-France, France
Bonjour, Nous cherchons pour notre client un Data Engineer Experimenté/Senior . Site : Ile de France Proche paris ; 2/3 jours/semaine obligatoire sur site Date de démarrage : ASAP Date de fin : 31/12/2028 Le Contexte : Rejoignez une équipe de 14 passionnés pour relever un double défi technologique ! Nous recherchons un Data Engineer Senior pour piloter l'évolution d'un écosystème Big Data On-Premise (DataStore) tout en ouvrant la voie vers le Cloud. Vous serez au cœur d’une transformation stratégique : assurer l'excellence opérationnelle actuelle tout en préparant la migration progressive vers GCP . Vos Missions : Piloter l’excellence technique : Superviser les flux, garantir la qualité des données et optimiser les performances du DataStore. Innover et Maintenir : Faire évoluer les pipelines critiques (Spark, Kafka, NiFi). Expertise de pointe : Résoudre les incidents de niveau 3 avec une approche analytique (JIRA/ITZMI). Accélérer la migration : Être un acteur clé des chantiers transverses vers le Cloud.
CDI
Freelance

Offre d'emploi
Data Engineer/Architecte

OBJECTWARE
Publiée le
Apache Spark
AWS Cloud
DBT

3 ans
41k-91k €
400-710 €
Île-de-France, France
Missions principales Conception et optimisation de pipelines de données à grande échelle (batch, streaming, API) Structuration des données selon le modèle Médaillon (Bronze / Silver / Gold) Développement et industrialisation via DBT, Spark et Iceberg Orchestration des workflows ETL/ELT via Airflow Déploiement cloud sur AWS et infrastructure as code avec Terraform Conteneurisation des traitements ( Docker, Kubernetes ) Supervision, observabilité, gestion des incidents et qualité des données Documentation et conformité RGPD Accompagnement de profils juniors
Freelance
CDI

Offre d'emploi
Expert en Machine Learning

VISIAN
Publiée le
Machine Learning

1 an
40k-45k €
190-480 €
Paris, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement dans l'objectif d'assurer un service d'expertise en Machine Learning appliqué à la publicité, la détection de fraude et la maintenance prédictive. Les tâches sont : Développement des modèles de scoring et de détection d'événements rares. Travail avec des jeux de données déséquilibrés et développer des stratégies pour les traiter efficacement. Usage des outils d'analyse de données low-code/no-code avancés issus de la suite logicielle d'une plateforme d'analyse de données pour faciliter le processus de modélisation. Collaboration avec les équipes métier pour comprendre leurs besoins et intégrer des solutions de Machine Learning adaptées.
CDI

Offre d'emploi
Développeur web / Data (H/F)

ADSearch
Publiée le

50k-60k €
Pantin, Île-de-France
Développeur web / data H/F – CDD – Pantin – Développement, Data, SQL La division IT de notre bureau Paris recherche pour son client, un organisme, un Développeur web / data (H/F) à Paris. Rattaché au responsable du département études et développement de la DSI, vous prenez en charge l’analyse, le traitement et la valorisation des données dans le cadre des missions qui vous sont confiées. Vous participez à la conception, au développement et à l’optimisation des applications nécessaires afin d’assurer la fiabilité et la performance des flux de données. VOS MISSIONS Vous serez en charge des missions suivantes : Collecter, nettoyer et structurer des données issues de sources variées (bases de données, API, fichiers externes). Réaliser des analyses pour répondre aux besoins métiers et formuler des recommandations basées sur les données. Concevoir des rapports et dashboards interactifs à l’aide d’outils de Business Intelligence. Gérer, maintenir et optimiser des bases de données

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

7297 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous