Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 710 résultats.
Freelance

Mission freelance
Data Analyst Spécialiste sur Infor M3

DEVIK CONSULTING
Publiée le
SQL

1 an
400-600 €
Île-de-France, France
Description Pour le compte de notre client grand compte, Nous recherchons un Data Analyst sénior sur l’ERP Infor M3 pour accompagner le client sur les données de domaines Finance et Achats Le consultant participera à la cartographie des tables et champs de donnée brutes issus de l’ERP Infor M3 Tâches principales Assurer le cadrage technique des données Collaboration avec les Data Engineers pour identifier les champs pertinents dans M3 Collaboration avec les Data Engineers pour définir les règles de gestion associés Profil Recherché Communication : Confirmé SQL : Confirmé Infor M3 / Movex : Expert Data Analyst : Expert L’Anglais est Obligatoire sur cette mission Lieu : Ile-de-france
Freelance

Mission freelance
Chef de Projet Data & IA (H/F)

AGH CONSULTING
Publiée le
Data analysis
IA Générative
Méthode Agile

1 an
480-520 €
Montrouge, Île-de-France
Vous intégrerez l'équipe Gestion de Projets de notre client, pour réaliser les missions suivantes : - Avec l'ensemble des parties prenantes (métiers, IT, CISO, juridiques, Data Scientists, Data Engineer...), gérer des projets Data, IA et IA Générative répondant aux besoins des métiers, en respectant la méthodologie certifiée et labélisée du DataLab Groupe : o Etude d'opportunité et cadrage, o Pilotage de la réalisation jusqu'à la mise en production à l'échelle, en assurant un reporting auprès des sponsors et de votre Direction, o Suivi du déploiement et de l'utilisation des solutions par les utilisateurs finaux, o Accompagnement de la montée en compétences des équipes des entités. - Contribuer à l'amélioration continue de la méthodologie, - Participer à l'animation de la communauté des experts Data & IA (webinars, Clubs, Groupe de Travail...), et à l'acculturation des collaborateurs, managers et dirigeants du Groupe, et au rayonnement des réalisations Data et de l'IA du client au travers d'événements externes (salons, conférences, communautés...).
Freelance

Mission freelance
Data Architect

Codezys
Publiée le
API
Azure
Azure Data Factory

12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Architect qui intégrera l'équipe stable dédiée à la Business Intelligence (BI) et à l'Analyse, avec un focus particulier sur le domaine Achats. Objectifs et livrables Ce que vous aurez à réaliser : En tant que Data Architect, vous veillerez à ce que les produits délivrés par votre équipe soient conformes à notre architecture cible globale. Pour soutenir cette fonction, nous cherchons un Data Architect spécialisé dans Azure, possédant une bonne compréhension des services disponibles dans la stack analytique Azure. Vous collaborerez avec le DPO, les Data Analysts, Data Engineers & Data Scientists de l'équipe, ainsi qu'avec la communauté d'architectes, afin de définir une architecture de qualité, apportant une valeur métier pertinente et assurant la maintenabilité à long terme. De plus, vous devrez faire preuve de compétences en leadership pour prendre en charge le rôle de lead technique et participer aux discussions avec les parties prenantes métier et l’architecture d’entreprise. Vous apportez un leadership technique, participez aux efforts de développement et représentez l’ensemble des capacités internes et externes de la plateforme. Vous êtes un membre actif de la guilde des architectes, chargé de superviser le processus de gestion des données et de fournir guidance et orientation aux équipes de développement. Vous êtes responsable de la conception et de la documentation des solutions dans votre domaine. Vous avez une expérience avec Databricks, ADLS Storage, SQL Database, Azure Data Factory (ADF) et Power BI. Vous avez l’expérience de la définition et de la gestion d’une architecture de données évolutive de bout en bout, en tenant compte de l’architecture d’entreprise et des normes du secteur. Vous maîtrisez le développement, la documentation et la maintenance de modèles de données logiques et physiques. Votre futur équipe Dans le cadre du domaine Achats, vous devrez relever de nombreux défis et aborder des sujets passionnants : Mettre en place des Data Products pour soutenir l’approche CAST (produits réutilisables partagés), conformément à notre stratégie. Contribuer à la définition de la feuille de route des initiatives BI & Analytics. Définir le Modèle de Données EDM et le mettre en œuvre en respectant les directives existantes. Participer à l’équipe de maintenance afin d’assurer la continuité des processus métier.
CDI

Offre d'emploi
Architecte Data (H/F)

CITECH
Publiée le
Data analysis
Microsoft Power BI
Teradata

40k-70k €
Lyon, Auvergne-Rhône-Alpes
Description de l'entreprise 🚀 CITECH recrute ! 🚀 ✨ Vous souhaitez mettre vos compétences techniques au service d’un projet d’envergure au sein d'un écosystème complexe et stratégique ? Alors cette mission est faite pour vous ! Nous recherchons un(e) Architecte Data Sénior (H/F) pour renforcer le Pôle Projets de la DSI de l’un de nos clients majeurs, acteur de référence dans le secteur de la protection sociale. 🙌🔽 Vos missions seront les suivantes : 🔸 Concevoir l'architecture cible de la plateforme Data en maîtrisant les patterns d'injection, de stockage, de transformation et d'exposition 🔸 Réaliser la modélisation des données (conceptuelle, logique et physique) dans une approche "Data Centric" 🔸 Assurer l'urbanisation des produits Data tout en garantissant l'harmonisation et la rationalisation des modèles 🔸 Définir les standards, les normes de qualité (typage, granularité) et les bonnes pratiques architecturales 🔸 Accompagner, communiquer et assurer l'alignement entre les différents acteurs métiers et techniques 🔸 Produire la documentation technique de référence (cahier des charges, schémas d'architecture) et assurer le transfert de compétences
Freelance

Mission freelance
Data Analyst Monétique

Signe +
Publiée le
Azure
Google Cloud Platform (GCP)
SQL

6 mois
400-480 €
Paris, France
Bonjour, Nous recherchons pour l'un de nos clients un Data Analyst Monétique. Contexte La squad data monétique au sein de la Datafactory a la charge de : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement, Dans ce cadre, les missions sont : • Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité • Animer des groupes de travail avec les sponsors, les business analyst et les membres de la squad (data viz, data engineer, business analyst) • Rédaction des livrables : spécifications fonctionnelles et techniques / user story, cahiers de recette • Réaliser les recettes des traitements d'intégration et de transformation de données • Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner • Formation et accompagnement des utilisateurs. Description • Maitrise du SQL • Compétences métiers en moyens de paiements fortement recommandées • Connaissances des outils de requêtage Data et de plateformes Big Data, idéalement Cloud (Azure, GCP) • Excellentes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Autonomie et rigueur • Sens de l'initiative et du résultat • Maitrise des méthodes agiles et des rituels associés.
CDI

Offre d'emploi
Consultant(e) Senior - Data IA (Product Owner à Data Scientist) F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Deep Learning
Scrum

Neuilly-sur-Seine, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Senior Data Product Manager/ Data Mesh/ Cloud AWS & AZURE / Anglais (H/F)

Octopus Group
Publiée le
BI
Dataiku
Finance

6 mois
550-680 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, Senior Data Product Manager Contexte de la mission : Il s'agit d'un poste à la fois stratégique et hautement opérationnel, chargé de la mise en œuvre concrète et du déploiement de la plateforme de données en libre-service du Groupe, fondée sur les principes du Data Mesh. Le Senior Data Product Manager est responsable de la mise en œuvre pratique, de l'industrialisation et de l'adoption à l'échelle de l'entreprise de la plateforme dans l'ensemble des domaines d'activité. Ce poste requiert un profil orienté vers la construction et l'exécution, capable de définir la vision et de la traduire en une plateforme évolutive, de qualité production et utilisable à grande échelle. Mission Principale : Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform - GDP) en tant que produit interne, en garantissant sa mise en œuvre technique, son adoption par l'entreprise, l'excellence opérationnelle et l'amélioration continue. Gestion de produit (axée sur l'utilisation) et amélioration continue Responsabilités : Identifier les besoins des utilisateurs et les exigences de la plateforme Définir la vision du produit et la feuille de route Mesurer l'utilisation et la création de valeur Améliorer l'expérience des développeurs et des utilisateurs Résultats attendus : Vision du produit et proposition de valeur Indicateurs clés de performance (KPI) de la plateforme et mesures d'adoption Boucles de retour d'information des utilisateurs et liste des améliorations à apporter Feuille de route pour l'amélioration de la plateforme Fourniture de la plateforme (responsabilité principale) Responsabilités : Définir les capacités de la plateforme (produits de données, pipelines, gouvernance, observabilité, accès en libre-service) Définir et faire respecter les normes techniques et les modèles d'architecture Prendre des décisions techniques concrètes et valider les solutions Livrables attendus : Comptes rendus des décisions d'architecture (ADR) Modèles d'architecture de référence et gabarits réutilisables Feuille de route des capacités de la plateforme Normes techniques de la plateforme Architecture et infrastructure cloud Responsabilités : Coordonner la conception et l'exploitation de l'architecture cloud et hybride en collaboration avec l'architecte de données du groupe Coordonner avec l'équipe de mise à disposition des données du groupe la mise en œuvre sur Amazon Web Services et Microsoft Azure Diriger l'intégration des systèmes sur site Veiller au respect des exigences en matière de sécurité et de conformité Résultats attendus : Plan directeur de l'architecture cloud (avec l'aide de l'architecte de données du groupe) Cadre de sécurité et de gestion des accès Gestion de la livraison et de l'exécution Responsabilités : Gérer le cycle de vie de la livraison de la plateforme Définir le backlog et le processus de hiérarchisation des priorités Gérer les versions et le déploiement en production Suivre les performances et la fiabilité Gérer les risques et les problèmes techniques Livrables attendus : Feuille de route de la plateforme (court / moyen / long terme) Backlog produit et cadre de priorisation Plan de lancement et processus de gestion des versions Tableaux de bord de suivi des livraisons SLA de la plateforme / indicateurs de fiabilité Déploiement et adoption par les domaines métier Responsabilités : Déployer la plateforme dans l'ensemble des domaines métier Permettre aux équipes métier de créer des produits de données Mettre en œuvre le modèle opérationnel Data Mesh Accompagner l'intégration et l'adoption Résoudre les difficultés opérationnelles liées à l'adoption Résultats attendus : Cadre et processus d'intégration des domaines métier Directives relatives au cycle de vie des produits de données Guides de mise en œuvre pour les domaines métier Indicateurs d'adoption et d'utilisation Supports de formation et documentation d'intégration Documentation, normalisation et gouvernance Responsabilités : Documenter les capacités et les processus de la plateforme Veiller au respect de la gouvernance fédérée des données computationnelles du groupe Résultats attendus : Référentiel de documentation de la plateforme Normes techniques et directives de mise en œuvre Cadre de gouvernance et de conformité Guides des meilleures pratiques Communication opérationnelle et rapports à la direction Responsabilités : Communiquer sur l'avancement et l'impact de la plateforme Fournir des rapports destinés à la direction Assurer la coordination entre les parties prenantes Livrables attendus : Tableau de bord du projet destiné à la direction Tableaux de bord sur les performances de la plateforme Présentations au comité de pilotage Suivi des décisions, des risques et des problèmes Promotion interne et évangélisation Responsabilités : Promouvoir la valeur de la plateforme au sein de l'organisation Soutenir les initiatives d'adoption en interne Développer la communauté autour de la plateforme Livrables attendus : Supports de communication internes relatifs à la plateforme Stratégie d'adoption et plan de déploiement Démonstrations de la plateforme et recueil de cas d'utilisation
Freelance

Mission freelance
Lead Data Scientist

Signe +
Publiée le
Big Data

12 mois
580-810 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Leader technique et fonctionnel chargé de concevoir, déployer et industrialiser des solutions AI/ML utilisant des algorithmes avancés Identifier les opportunités d’amélioration data et piloter leur mise en œuvre dans des environnements cross-fonctionnels Encadrer et faire monter en compétences une équipe de Data Scientists et Data Analysts Garantir le cycle de vie complet des modèles (développement, déploiement, monitoring, amélioration continue) Collaborer étroitement avec les équipes métiers pour transformer les besoins business en solutions data Expérience requise 8 à 10+ ans d’expérience en Data Science Expérience confirmée en développement de code déployable et mise en production de modèles Expérience en développement logiciel production-ready et en environnement agile Expérience de management d’équipe Data Expérience en environnement healthcare ou manufacturing appréciée Compétences techniques Maîtrise des langages Data Science : Python, R, C++ Connaissance des bases de données SQL / NoSQL / Graph / Time series Expertise en AI/ML : Supervised & Unsupervised Learning Deep Learning LLMs Reinforcement Learning Federated Learning Time series forecasting Bayesian statistics et optimisation Expérience cloud et HPC : AWS, Azure, Spark CI/CD, orchestration et industrialisation des modèles Data visualization & storytelling (Tableau, Power BI, Streamlit) Expérience APIs enterprise et big data mining Connaissance des réglementations Data & AI Compétences comportementales Leadership et management d’équipe Communication écrite et orale excellente Capacité à aligner plusieurs équipes et parties prenantes Esprit analytique et résolution de problèmes Autonomie, proactivité et esprit d’équipe Formation Master ou PhD en mathématiques, informatique, ingénierie, statistiques ou domaine quantitatif équivalent
CDI

Offre d'emploi
Data Quality Specialist - Partenaires Courtiers (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
SQL

30k-35k €
Puteaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Architecte AWS / Iceberg

Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API

12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
CDI
Freelance

Offre d'emploi
Senior Solution Architect H/F

OBJECTWARE
Publiée le
Cybersécurité
Data Warehouse
TOGAF

1 an
80k-90k €
500-600 €
Luxembourg
Nous recherchons pour l’un de nos clients spécialisés dans le domaine de l’assurance un Senior Solution Architect H/F au Luxembourg. Vos missions seront les suivantes : 1. Architecture de Solution pour les projets du client Concevoir des architectures de solution end-to-end : applicative, data, technique et intégration. Traduire les besoins métiers en solutions techniques concrètes alignées avec les standards du Groupe. Définir les exigences non fonctionnelles : scalabilité, performance, sécurité, résilience, conformité. Produire la documentation d’architecture : dossiers de solution, diagrammes C4, vues d’intégration, spécifications d’interfaces. Garantir la conformité aux principes directeurs d’architecture et aux patterns recommandés. Participer aux choix de technologies, frameworks et patterns (cloud-native, microservices, API-first, IA augmentée…). 2. Contribution à la Gouvernance d’Architecture Participer activement aux revues de solution et aux instances de gouvernance (Architecture Review Board). Assurer la préparation, présentation et validation des dossiers d’architecture. Contribuer à la définition et mise à jour des principes, standards, garde-fous et patterns d’architecture. Intégrer les enjeux de cybersécurité, IA, cloud et durabilité dans les choix de conception. 3. Support transverse et alignement avec l’Architecture d’Entreprise Collaborer étroitement avec les architectes d’entreprise pour assurer cohérence, harmonisation et évolution du paysage IT. Proposer des orientations et trajectoires d’évolution (modernisation, rationalisation, migration cloud…). Assurer l’intégration et la contribution au référentiel d’architecture et au Tech Radar. 4. Innovation et IA Engineering Assurer une veille technologique active sur les architectures cloud, API-centric, data-centric et IA engineering. Évaluer l’apport des solutions d’IA émergentes (agents autonomes, RAG, MCP…) dans les patterns d’architecture. Contribuer à l’évolution de la pratique d’architecture-as-a-service.
Freelance

Mission freelance
AI Prompt Engineer

Phaidon London- Glocomms
Publiée le
AI
Data science
Finance

6 mois
400-550 £GB
Bordeaux, Nouvelle-Aquitaine
Conception et optimisation des invites Concevoir, améliorer et maintenir des invites de haute qualité (système, instructions, exemples, etc.). Développer des stratégies d'invites avancées : enchaînement de pensées, interactions multiples, routage, utilisation d'outils. Créer et gérer un référentiel d'invites standardisées pour les principaux cas d'usage du secteur bancaire. Intégration aux produits Collaborer avec les équipes Données et Informatique pour intégrer des invites optimisées aux assistants conversationnels. Gérer le versionnage et le suivi du cycle de vie des invites. Accompagner les équipes métiers dans la définition de leurs besoins et l'identification des cas d'usage d'IA à forte valeur ajoutée. Évaluation et assurance qualité Mettre en œuvre des cadres de test robustes : analyse comparative, analyse des hallucinations, contrôles de précision. Réaliser des tests A/B et mettre en place des outils d'évaluation semi-supervisée. Surveiller et améliorer en continu les performances conversationnelles. Conformité, Sécurité et Gouvernance Garantir la conformité aux exigences réglementaires (secteur bancaire, RGPD, loi sur l'IA). Créer et diffuser des bonnes pratiques pour les équipes métiers.
Freelance
CDI

Offre d'emploi
Business Analyst MDM / Data

VISIAN
Publiée le
Big Data
Data governance
ETL (Extract-transform-load)

1 an
Paris, France
Descriptif du poste Au sein d'une équipe data qui a pour mission de définir la stratégie et la feuille de route Data du groupe, de développer et gérer l'écosystème de partenaires Data, de définir et déployer la gouvernance des données, de définir et piloter le plan d'acculturation Data, et d'accompagner le déploiement des produits et services Data. Le Global Data Office a en charge le développement et le maintien des données de référence du groupe, et a lancé un programme de refonte de la plateforme de Master Data Management
Freelance

Mission freelance
Analyste Support BI & Cloud Solutions (N2)

Nicholson SAS
Publiée le
Azure Data Factory
Databricks
Gouvernance, gestion des risques et conformité (GRC)

10 mois
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Secteur : Industrie / Excellence Opérationnelle Localisation : Clermont-Ferrand (Rythme : 3 jours/semaine sur site) Démarrage : ASAP Visibilité : Jusqu’au 15/02/2027 Le Challenge Au cœur d'un environnement Cloud moderne, votre mission consiste à garantir la fiabilité, la performance et la disponibilité critique des services BI. Véritable pivot entre la technique et les besoins métiers, vous assurez un support de niveau 2 sur des solutions de reporting et de traitement de données à forte valeur ajoutée. Vos Responsabilités Maintien en Condition Opérationnelle : Analyse et résolution d'incidents complexes (logs, erreurs de traitement, gestion des permissions). Interface Technico-Fonctionnelle : Traduire des problématiques techniques complexes en impacts métiers clairs pour les parties prenantes. Transition & Qualité : Participer aux phases de mise en exploitation (SDM, SLA) et assurer le suivi rigoureux des indicateurs de performance. Amélioration Continue : Identifier proactivement les points de fragilité, remonter les alertes et proposer des optimisations sur l'existant (IA, automatisation). Astreintes : Participation ponctuelle au dispositif d'astreinte (environ 1 semaine par mois). Stack Technique & Expertise Data Core : Maîtrise avancée du SQL et de Python orienté Data. Ecosystème Azure : Azure Data Factory, Azure Databricks et principes de gouvernance Cloud. Restitution : Expertise fonctionnelle sur Power BI (incluant les concepts de sécurité RLS). Data Science : Notions de base en Machine Learning pour accompagner les évolutions analytiques. Langue : Anglais courant obligatoire (contexte international). Profil Recherché Vous justifiez d'une expérience de 4 ans minimum sur un rôle similaire, mêlant rigueur technique et sens du service. Esprit d’Analyse : Capacité à synthétiser des informations complexes et à prioriser les urgences. Agilité Relationnelle : Vous interagissez avec aisance avec des profils variés (DevOps, Data Engineers, Métiers, Support L3). Curiosité : Un intérêt marqué pour les nouvelles technologies et l'IA pour faire évoluer votre périmètre. Conditions de la prestation TJM : 400 € Soft Skills clés : Autonomie, proactivité et excellente communication écrite/orale.
Freelance
CDI

Offre d'emploi
Consultant Fonctionnel – Reprise de Données / SQL H/F

HAYS France
Publiée le
Data analysis
Data management
Data quality

1 an
40k-52k €
330-440 €
Bouches-du-Rhône, France
Nous recherchons un consultant fonctionnel spécialisé dans la reprise de données dans le cadre de projets ERP. Vous interviendrez sur l’analyse, l’extraction, la transformation et l’intégration des données de gestion et données comptables. Missions Analyser les besoins fonctionnels liés à la reprise de données. Préparer, traiter et intégrer les données dans un ERP : Commandes Factures Écritures ou données comptables Maîtriser les requêtes et manipulations SQL pour extraction, transformation et contrôle qualité. Assurer la fiabilité, la cohérence et la conformité des données reprises. Collaborer avec les équipes métier, fonctionnelles et techniques. Contribuer à la documentation et aux étapes de validation.
CDI

Offre d'emploi
Administrateur Data Lake / Cloudera (F/H) (H/F)

█ █ █ █ █ █ █
Publiée le
Ansible
Hadoop
Hbase

40k-50k €
Issy-les-Moulineaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

2710 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous