Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 431 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer - Migration Data Lake

VISIAN
Publiée le
Data Engineering
Migration

1 an
Paris, France
Contexte Le Cluster lance l'étude d'un potentiel nouveau Data Lake afin de remplacer l’infrastructure legacy par une plateforme moderne, scalable et pleinement gouvernée. Le nouveau lake s’appuiera sur une architecture Medallion et intégrera les technologies suivantes : TrinoDB, Apache Iceberg, Parquet, dbt, Argo Workflows, Apache Superset, Metabase et OpenMetadata . Missions Analyse de l’existant & migration Cartographier les sources, pipelines et jeux de données actuels (legacy, SQL, fichiers plats...). Définition de la stratégie de migration vers le nouveau lake (bronze -> silver -> gold). Conception des plans de bascule tout en minimisant les interruptions de service. Architecture & ingestion Conception des couches Bronze / Silver / Gold du nouveau Data Lake avec TrinoDB, Apache Iceberg et Parquet. Création de pipelines d’ingestion (batch & near-real-time) depuis les systèmes de crédit. Modélisation & transformation Développement des modèles de transformation dans dbt : scripts SQL, tests automatisés, documentation et versionning. Harmonisation des schémas (normes de nommage, typage, PK/UK) avec les exigences du domaine crédit. Orchestration Implémentation des workflows de migration et de rafraîchissement des données avec Argo Workflows (planification, gestion des dépendances, monitoring). Self-service & visualisation Déploiement des espaces de travail Apache Superset et Metabase pour que les analystes métier puissent créer leurs propres dashboards à partir du nouveau lake. Rédaction des guides d’utilisation et accompagnement de la montée en compétence des équipes. Gouvernance, catalogue & lineage Intégration OpenMetadata pour le catalogage automatique, le suivi du lineage et la gestion des métadonnées (description, propriétaire, sensibilité). Mise en place des processus de data ownership, de versionning et de validation. Qualité & validation Implémentation, dans les modèles dbt, des tests de qualité (not-null, unicité, règles métiers spécifiques au crédit). Mise en place des indicateurs de suivi (freshness, complétude, anomalies) et des alertes automatiques. Sécurité & conformité Application des standards de sécurité du groupe (RBAC, data-masking). Contribution aux audits internes et aux revues de conformité réglementaire. Collaboration inter-équipes Travail en étroite coordination avec les équipes métiers. Participation aux cérémonies projets et aux ateliers de design.
Freelance

Mission freelance
Data Engineer / Software Engineer Data (H/F)

Nicholson SAS
Publiée le
Azure
Databricks
Machine Learning

7 mois
Niort, Nouvelle-Aquitaine
Le contexte Nous recherchons un Data Engineer (ou Software Engineer avec une forte spécialisation Data) pour renforcer une équipe agile en charge de l'industrialisation de projets Data et ML. La mission se déroule dans un environnement technique Azure et s'appuie sur une méthodologie SAFe . Vos missions principales Votre rôle consiste à transformer des prototypes en solutions industrielles fiables et performantes. Vous intervenez sur : Pipelines de données : Conception et développement de flux Batch sous Azure Databricks . Vous gérez l'utilisation de PySpark, Delta Lake et MLFlow. Optimisation technique : Travail sur la performance des traitements (partitionnement, gestion mémoire, exploitation GPU) et mise en place du monitoring (reprise d'erreur, traçabilité). Développement logiciel : Création de packages Python réutilisables. Vous garantissez la qualité via des tests unitaires, de la documentation et l'intégration dans les pipelines CI/CD. API & Services : Développement d'API via Azure Functions ou Azure Container Apps. Collaboration métier : Travail quotidien avec les Data Scientists pour industrialiser leurs modèles (notamment sur des algorithmes de bagging et boosting). Cycle de vie projet : Participation complète de l'étude de faisabilité à la mise en production, incluant le suivi en RUN et l'amélioration continue. Détails de la mission Localisation : Niort (présence obligatoire sur site 3 jours par semaine). Démarrage : 04/05/2026. Durée : Jusqu'au 31/12/2026 (visibilité fin d'année). Tarif : Selon profil et expérience.
Freelance

Mission freelance
Senior Data Engineer - Financial

Phaidon London- Glocomms
Publiée le
Apache Airflow
Azure DevOps
CI/CD

6 mois
400-550 €
Paris, France
Concevoir et implémenter des pipelines de données robustes et évolutifs Optimiser les performances et la rentabilité (optimisation des requêtes, clustering, stratégies de stockage) Implémenter des pipelines CI/CD et des frameworks d'observabilité pour améliorer la fiabilité des données Collaborer étroitement avec les architectes et les parties prenantes métiers pour s'aligner sur les objectifs stratégiques Promouvoir les bonnes pratiques en matière de gouvernance, sécurité et conformité des données Encadrer les ingénieurs et contribuer aux bonnes pratiques et aux normes d'ingénierie Assurer le support des environnements de production, résoudre les problèmes et effectuer des analyses de causes profondes Contribuer à l'amélioration continue de la plateforme de données
CDI
Freelance

Offre d'emploi
Data Governance Manager – Stewardship & Adoption sur Bordeaux

EterniTech
Publiée le
Data governance
Data management
Microsoft Power BI

3 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes client un Data Governance Manager – Stewardship & Adoption sur Bordeaux Expérience : mini 5 ans en Data Gouvernance Localisation : Bordeaux Démarrage asap pour 5 mois contexte de la mission et l’équipe Chez mon client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents • capacité à structurer et animer une communauté de Data Stewards • capacité à embarquer des parties prenantes variées et à conduire le changement • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation • approche pragmatique et orientée adoption / impact Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
Freelance

Mission freelance
Data analyst SENIOR

MLMCONSEIL
Publiée le
Python

6 mois
100-470 €
Nantes, Pays de la Loire
Recherche d'un data analyst SENIOR : Tâches Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning
Freelance
CDI

Offre d'emploi
Consultant Data Governance & Data Migration (H/F)

Deodis
Publiée le
Data governance
Data Lake

1 an
38k-50k €
430-600 €
Île-de-France, France
En tant que Consultant Data spécialisé en gouvernance et migration, vous intervenez au cœur d’un programme stratégique de transformation visant à structurer, fiabiliser et harmoniser les flux de données dans un environnement complexe. Intégré(e) au Data Office, vous jouez un rôle clé dans la définition des besoins métiers, la conception des flux de données et le pilotage des livraisons, tout en garantissant la qualité, la traçabilité et la conformité des données. À ce titre, vous animez des ateliers avec les équipes métiers et IT afin de recueillir et formaliser les besoins data, réalisez des analyses d’écart entre les systèmes existants et les solutions cibles, et concevez les data lineage de bout en bout. Vous participez activement aux ateliers de conception fonctionnelle et technique, en apportant votre expertise sur les enjeux de gouvernance, de qualité et d’architecture des données. Vous êtes également en charge du pilotage de la roadmap data, en assurant le suivi des livraisons, l’identification des dépendances critiques et la gestion des risques. Vous maintenez un backlog structuré, suivez les indicateurs de performance et contribuez à la mise en place des standards de gouvernance et de qualité définis par le Data Office. Enfin, vous agissez comme référent sur votre périmètre, en accompagnant les équipes dans l’adoption des bonnes pratiques, en produisant une documentation de qualité (data dictionaries, processus, cartographies de flux) et en contribuant aux actions de change management dans un contexte de transformation à grande échelle.
CDI
Freelance

Offre d'emploi
Data Engineer, AWS (H-F)

K-Lagan
Publiée le
Azure
Big Data
Databricks

1 an
42k-50k €
400-550 €
Nantes, Pays de la Loire
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique, innovation et accompagnement personnalisé. Aujourd’hui, nous recherchons un·e Data Engineer (F/H) pour rejoindre l’un de nos clients sur un projet stratégique autour de la data temps réel et des architectures Cloud , basé à Nantes . 🎯 Contexte Vous interviendrez sur le développement et l’optimisation de pipelines de données temps réel, dans un environnement moderne orienté Cloud et industrialisation. L’objectif : concevoir des solutions robustes, automatisées et performantes pour garantir la fiabilité et la scalabilité des flux de données. 📍 Les modalités Localisation : Nantes Contrat : CDI ou Freelance Démarrage : ASAP Conditions et rémunération ouvertes à négociation selon profil et expertise
Alternance

Offre d'alternance
Data scientist - Backend E-commerce (H/F) - - Alternance

█ █ █ █ █ █ █
Publiée le
Apache Spark
CI/CD
Docker

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
Freelance

Mission freelance
Data Analyst – Snowflake / AI - Full remote

Net technologie
Publiée le
Agent IA
Data analysis
Data modelling

6 mois
France
Nous recherchons un Data Analyst pour accompagner un projet stratégique de transformation digitale autour d’une plateforme basée sur un agent IA (LLM). 🎯 Objectif : permettre aux métiers d’interroger les données en langage naturel via des requêtes SQL automatisées. 🚀 Missions Alignement entre besoins métiers & solution data Contribution aux user stories & backlog (Agile) Modélisation et validation des données & couche sémantique Participation aux tests, QA & data quality Coordination avec PO, équipes data et fournisseurs de données
CDI

Offre d'emploi
Administrateur Système, Réseaux et Production H/F

TENEXA GROUP
Publiée le

35k-40k €
Colombes, Île-de-France
Dans le cadre de l'évolution de notre organisation, nous recrutons un Administrateur d'Infrastructure pour rejoindre notre équipe CDS ITOps. Vous intégrez une équipe technique en pleine transformation, avec une culture DevOps croissante et des projets d'automatisation ambitieux. Ce poste s'adresse à un profil généraliste Système & Réseau, curieux techniquement, et souhaitant élargir ses compétences vers l'automatisation et les pratiques DevOps. Au quotidien, vous serez responsable du bon fonctionnement des infrastructures de nos clients et interviendrez sur l'ensemble du périmètre IT : Exploitation & Support Gérer et résoudre les incidents escaladés par le Front Office Assurer le contrôle quotidien des infrastructures et applications clients Veiller à la conformité des ressources informatiques aux règles de sécurité Administration & Automatisation Analyser et mettre en œuvre les changements sur les ressources IT Développer des workflows et des scripts d'automatisation Produire et maintenir les documentations d'exploitation Projets & évolution Participer aux projets techniques d'infogérance Proposer des scénarios d'évolution des infrastructures Apporter une vision technique dans le chiffrage de projets Assurer le transfert de compétences vers les équipes Front Office
Freelance
CDI

Offre d'emploi
Business Analyst DATA SAS Senior

CAT-AMANIA
Publiée le
Big Data
Business Analyst
Cloudera

1 an
60k €
540-600 €
Paris, France
Nous recherchons un Business Analyst DATA senior, pour renforcer l'équipe cliente de Conseil et Valorisation de la Data. Les missions seront les suivantes : - Assurer une proximité et accompagner les direction métiers sur les usages autour de la donnée - Réaliser les études et apporter le bon conseil vers les métiers sur le volet Data - Assurer le support et l’assistance métier des usages Data - Contribuer à la production des livrables de niveau fonctionnel • Recueillir et analyser les besoins métiers, • Apporter le conseil nécessaire aux direction Métier sur l’exploitation de la donnée, • Participer au cadrage des projets Data (études d’impacts, faisabilité) • Contribuer aux études d’opportunité et de faisabilité sur le volet Data, • Garantir la cohérence fonctionnelle et technique du SI • Réaliser les recettes fonctionnelles, qualifier les anomalies et suivre les corrections • Produire des livrables fonctionnels (modélisations de données, SFG, SFD), • Tenir à jour la base documentaire du patrimoine, • Garantir la bonne satisfaction métier Data (qualité, engagement, cout, délai).
Freelance

Mission freelance
Proxy Product Owner – Data Platform Snowflake - Full remote

Net technologie
Publiée le
Agile Scrum
Data Product Management
Data quality

3 mois
450-500 €
France
Dans le cadre d’un programme data, nous recherchons un(e) Proxy Product Owner pour accompagner la livraison de produits data sur une plateforme Snowflake en contexte Agile. 🎯 Objectif : faire le lien entre les équipes métiers et techniques afin de garantir des solutions data fiables, alignées avec les besoins business. 🚀 Missions Support du Product Owner sur la gestion et priorisation du backlog Traduction des besoins métiers en user stories & critères d’acceptation Coordination avec les équipes Data Engineering & Analytics Suivi des exigences autour des modèles de données, transformations & reporting Participation aux rituels Agile et suivi des sprints Suivi des livraisons et gestion des blocages fonctionnels Point de contact entre les stakeholders et les équipes techniques
CDI

Offre d'emploi
Data Scientist et IA H/F

Le Groupe SYD
Publiée le
BI
IA Générative
Intelligence artificielle

50k-60k €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes (44) 🏠 Télétravail : 2 jours par semaine ✔ Démarrage ASAP ✏ CDI client final (pré-embauche) 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Data Scientist et IA H/F afin d'intégrer la Data Factory de notre client. Au sein d'un équipe composée de 2 Data Scientists, tes missions sont : Accompagner la transformation digitale numérique, data et IA du client Gérer les projets IA / Data adaptés à l'entreprise Participer aux projets qui concernent tous les domaines fonctionnels (finance, supply chain, ressources humaines...) Comprendre les enjeux métiers des projets Participer aux lancements des nouveaux projets et assurer les RUN des projets déjà livrés Effectuer de la veille technique et documentaire ( bon niveau en anglais écrit et lu demandé )
CDI

Offre d'emploi
ADMINISTRATEUR SYSTÈME & RÉSEAU H/F

S-quaar
Publiée le
Active Directory
Administration linux
Administration Windows

35k-40k €
Carquefou, Pays de la Loire
Lieu : Nord-Est de Nantes (44) Salaire : 35 à 40 K€ annuel brut Rythme : Pas de télétravail sur ce poste Nous recherchons un profil technique pour rejoindre un groupe industriel reconnu en tant que Référent Informatique , rattaché directement à la Direction Générale. VOS MISSIONS : En tant que pilier technique, vous assurez l'administration, la sécurité et êtes proactifs dans l'évolution de notre infrastructure complexe. Vous êtes référent auprès des utilisateurs, savez prendre en compte les demandes, accompagner, effectuer des recherches, synthétiser les connaissances, avoir un esprit pédagogique. 1. Administration & Maintenance des Systèmes Administration et maintenance quotidiennes de serveurs Windows et Debian Gestion et administration de l'environnement de virtualisation XCP-NG. Gestion des utilisateurs : via l'Active Directory (Samba4AD) Configuration et supervision des équipements réseaux (TCP/IP, DNS, VPN, Pare-feu, commutateurs HP ARUBA). Sauvegardes : Supervision et test des processus de sauvegarde pour garantir la récupération des données (PRA / PCA). Opérations quotidiennes selon procédures sur l'infrastructure IBM AS400. 2. Sécurité Refonte de la PSSI : mots de passe, authentification, charte informatique Cybersécurité : Mise en place et actualisation des dispositifs de sécurité (antivirus, pare-feu, gestion des habilitations). Gestion de la sécurité : certificats et polices OpenVPN, Shore Wall, mises à jour, traitement des alertes, veille technologique 3. Pilotage de Projets & Architecture Étude de faisabilité : Analyse des besoins métiers et choix des équipements/solutions (compatibilité, viabilité technique). Gestion de partenaires : Sélection, coordination et suivi des prestataires externes (intégrateurs, infogéreurs) sur la qualité des livrables et les délais. Déploiement : Cadrage, mise en œuvre, recette et déploiement des nouveaux environnements techniques. Documentation : Tenue à jour de l'architecture du SI et formalisation des procédures et bonnes pratiques. 4. Support & Outils de Communication Téléphonie : Administration de la solution de téléphonie (PABX Alcatel). Ticketing : Gestion et suivi des demandes ITIL via GLPI avec une logique de qualité de service. Support de proximité : Intervention technique niveau 1 / 2 et accompagnement des utilisateurs. Sensibilisation : Formation des collaborateurs aux enjeux de cybersécurité.
CDI

Offre d'emploi
Contrôleur de Gestion Data Analyst H/F

█ █ █ █ █ █ █
Publiée le

Boulogne-Billancourt, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

5431 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous