Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 718 résultats.
Freelance

Mission freelance
Data Engineer / Software Engineer Data (H/F)

Nicholson SAS
Publiée le
Azure
Databricks
Machine Learning

7 mois
Niort, Nouvelle-Aquitaine
Le contexte Nous recherchons un Data Engineer (ou Software Engineer avec une forte spécialisation Data) pour renforcer une équipe agile en charge de l'industrialisation de projets Data et ML. La mission se déroule dans un environnement technique Azure et s'appuie sur une méthodologie SAFe . Vos missions principales Votre rôle consiste à transformer des prototypes en solutions industrielles fiables et performantes. Vous intervenez sur : Pipelines de données : Conception et développement de flux Batch sous Azure Databricks . Vous gérez l'utilisation de PySpark, Delta Lake et MLFlow. Optimisation technique : Travail sur la performance des traitements (partitionnement, gestion mémoire, exploitation GPU) et mise en place du monitoring (reprise d'erreur, traçabilité). Développement logiciel : Création de packages Python réutilisables. Vous garantissez la qualité via des tests unitaires, de la documentation et l'intégration dans les pipelines CI/CD. API & Services : Développement d'API via Azure Functions ou Azure Container Apps. Collaboration métier : Travail quotidien avec les Data Scientists pour industrialiser leurs modèles (notamment sur des algorithmes de bagging et boosting). Cycle de vie projet : Participation complète de l'étude de faisabilité à la mise en production, incluant le suivi en RUN et l'amélioration continue. Détails de la mission Localisation : Niort (présence obligatoire sur site 3 jours par semaine). Démarrage : 04/05/2026. Durée : Jusqu'au 31/12/2026 (visibilité fin d'année). Tarif : Selon profil et expérience.
CDI

Offre d'emploi
Data engineer (H/F)

Amiltone
Publiée le

35k-40k €
Lille, Hauts-de-France
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
CDI

Offre d'emploi
Data Engineer Teradata et Big Data H/F

CONSORT GROUP
Publiée le
Big Data
Teradata

55k-62k €
75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de ConsortIA , sont des acteurs de référence de la Data, du Développement Digital et de l'Ingénierie Média. En combinant ces expertises, nous concevons des systèmes d’information augmentés, intégrés, agiles et sécurisés, au service de la performance et de la transformation numérique de nos clients. Data Engineer Teradata et Big Data H/F C’est votre mission Vous êtes passionné·e par [XXX] ? Ce poste est fait pour vous. En tant que Data Engineer Teradata et Big Data , vous êtes responsable du [XXX] et [XXX] de notre écosystème : Côté build : Concevoir et développer des solutions DataMart / Datalab sur environnement Teradata Mettre en œuvre les chaînes ETL via BTEQ / TPT Développer des traitements de collecte, transformation et stockage de données sur plateforme Big Data Construire des agrégats et indicateurs (scores, datamarts) à destination des équipes Data Science Développer des pipelines de données sous environnements Spark / Hadoop / HDFS Participer à la modélisation et au design des solutions de données (bonnes pratiques Data Engineering) Industrialiser les traitements dans un contexte Unix / SQL / Teradata Utiliser les outils collaboratifs (Git, Jira, Confluence, MEGA) dans un cadre Agile Côté run : Assurer le support et la maintenance des chaînes de production Data Surveiller et optimiser les traitements batch (ordonnancement via Control-M ) Gérer les incidents de production sur les flux Teradata / Big Data Analyser et corriger les anomalies sur les traitements SQL / ETL Garantir la disponibilité et la performance des jobs data Participer à l’amélioration continue des pipelines (fiabilisation, optimisation) Assurer le support aux équipes Data Science sur les environnements de données Maintenir la documentation technique (Confluence, MEGA) Suivre les bonnes pratiques d’exploitation dans un contexte DevOps C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements DevOps exigeants. Vous aimez concevoir et industrialiser des pipelines de données robustes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Environnement Linux / Unix dans un contexte Agile et DevOps Maîtrise des technologies Data : Teradata, SQL, BTEQ, TPT Écosystème Big Data : Spark, Hadoop, HDFS, Python Outils d’exploitation et d’ordonnancement : Control-M Outils collaboratifs : Git, Jira, Confluence, MEGA Connaissance de solutions ETL / Data : Datastage Bonne compréhension des architectures de données et pipelines industrialisés C’est votre manière de faire équipe : Rigueur et sens de la qualité dans les traitements de données Esprit d’analyse et capacité de résolution de problèmes complexes Collaboration forte avec équipes Data, IT et métier Autonomie et sens des responsabilités en environnement de production Communication claire et esprit d’équipe Adaptabilité dans des environnements techniques évolutifs (DevOps / Big Data) Culture de l’amélioration continue et du delivery fiable C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Paris Contrat : CDI Télétravail : Hybride Salaire : De 55K € à 62K € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
CDI

Offre d'emploi
Data analyst H/F

Proxiad
Publiée le
Data analysis
Python
SQL

47k-65k €
Île-de-France, France
🎯 Objectifs principaux Recueillir et formaliser les besoins métiers liés aux données de référence Analyser les données existantes et proposer des modèles de données adaptés et réutilisables Contribuer à la création et à l’évolution des datasets stratégiques Garantir la qualité, la cohérence et la gouvernance des données Faciliter l’exposition et la consommation des données (API, Data Platform) Participer aux programmes de transformation et de migration 🛠️ Responsabilités clés Rédaction de user stories et critères d’acceptation Analyse fonctionnelle et data (y compris cas complexes) Modélisation des données (référentiels / MDM) Contribution aux analyses ad hoc Support aux équipes techniques (ingénieurs data) Participation à la gouvernance des données (qualité, métadonnées, catalogage) Rédaction de documentation et accompagnement à la mise en production À distance – maximum 3 jours par semaine Le consultant travaillera sur l'ordinateur portable et le système du client.
Alternance
CDI

Offre d'emploi
ALTERNANT(E) DATA SCIENTIST - H/F

█ █ █ █ █ █ █
Publiée le
Big Data
Python
SQL

Chambéry, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
LUXEMBOURG - Consultant Audit Data / Data Provisioning (H/F)

FUZYO FRANCE
Publiée le
Audit
Data Engineering
IBM DataStage

1 mois
Luxembourg
Mission courte – 4 à 6 semaines mission sur site du client au LUXEMBOURG Nous recherchons un consultant senior en data pour une mission d’évaluation et de conseil au sein d’une équipe Data / Data Provisioning pour un client au LUXEMBOURG. Objectif de la mission Analyser les processus data existants (collecte, intégration, transformation, mise à disposition) Évaluer l’ efficacité organisationnelle et technique Auditer les outils data (Data Integration, pipelines, orchestration) Identifier les points de friction et risques Proposer des recommandations concrètes et priorisées Construire un plan d’actions chiffré (jours/homme) Attendus Cartographie des processus existants Analyse des forces, faiblesses et risques Recommandations d’optimisation Plan d’actions priorisé et chiffré
Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
CDI

Offre d'emploi
Ingénieur Data H/F

HAYS France
Publiée le

Tours, Centre-Val de Loire
Les missions sont les suivantes :-Concevoir et structurer des solutions Data (modélisation, collecte, traitement et exploitation des données)-Participer à la mise en place de l'Intelligence Artificielle au sein de l'organisation (IA positionnée en amont d'un CRM permettant une meilleure connaissance du portefeuille clients)-Mettre en œuvre des outils du marché ou des solutions internes adaptés aux besoins métiers-Travailler sur : l'analyse et la connaissance client, la gestion des partenaires (vente et partage de données), l'automatisation des campagnes de mailing-Collaborer étroitement avec les équipes métiers et les développeurs-Être force de proposition sur les usages Data & IA
CDI

Offre d'emploi
INGÉNIEUR SYSOPS / RUN DATA GCP - H/F

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

45k-50k €
Montigny-le-Bretonneux, Île-de-France
Missions Dans le cadre de vos fonctions, vous serez amené(e) à intervenir sur une plateforme DATA critique, en assurant son bon fonctionnement et son amélioration continue. À ce titre, vous allez être amené(e) à : • Assurer le RUN et l'exploitation d'une plateforme DATA critique, en garantissant sa disponibilité, sa performance et sa stabilité au quotidien. • Analyser et résoudre les incidents liés aux traitements et aux pipelines de données, en identifiant rapidement les causes et en mettant en place des actions correctives adaptées. • Améliorer la supervision existante et contribuer à la fiabilisation du RUN, notamment via la mise en place d'outils de monitoring, d'alerting et de bonnes pratiques d'exploitation. • Participer aux tests et au déploiement des évolutions techniques, en veillant à la qualité, à la non-régression et à l'intégration fluide dans l'environnement existant. • Documenter les incidents et capitaliser sur les retours d'expérience, afin d'améliorer en continu les processus, les procédures et la connaissance globale de la plateforme. • Collaborer étroitement avec les équipes DATA et applicatives, en favorisant la communication, le partage d'information et la résolution transverse des problématiques. Référence de l'offre : kcd9qi161r
CDI

Offre d'emploi
Chargé de projets SI et data H/F

HAYS France
Publiée le

50k-65k €
75001, Paris, Île-de-France
Rattaché à la Direction Financière, le chargé SI & Data est le référent technique de l'entreprise sur l'ensemble du périmètre informatique. Véritable profil couteau-suisse, il intervient aussi bien sur la gestion de la donnée que sur l'architecture des logiciels métiers, l'infrastructure réseau du siège et la gestion du parc matériel. Il est l'interlocuteur(trice) de confiance des équipes internes pour tout sujet lié aux systèmes d'information. Data Collecter, structurer et fiabiliser les données issues des différents systèmes (ventes, opérations, RH, finance) Mettre en place et maintenir les outils de reporting et de visualisation de données (dashboards, tableaux de bord) Accompagner les équipes métiers dans l'exploitation et l'analyse de leurs données Logiciels et architecture SI Administrer et maintenir les logiciels métiers du siège (ERP, CRM, outils de caisse, plateformes SaaS) Gérer les intégrations entre les différentes applications et assurer la cohérence de l'architecture SI Piloter les projets de déploiement ou de migration logicielle : cahier des charges, suivi prestataires, recette Infrastructure réseau Administrer et superviser l'infrastructure réseau du siège (LAN, Wi-Fi, VPN, pare-feu) Assurer la disponibilité, la performance et la sécurité des connexions et des accès Gérer les accès utilisateurs, les droits et les politiques de sécurité informatique Parc matériel Gérer le parc informatique : ordinateurs, serveurs, terminaux de caisse, tablettes, périphériques Assurer les achats, la configuration, le déploiement et le renouvellement du matériel Mettre en place et suivre l'inventaire du parc et les contrats de maintenance associés
Freelance

Mission freelance
DATA ANALYST ASSET MANAGEMENT REFERENTIEL (NEOXAM)

PARTECK INGENIERIE
Publiée le
Data quality
Python
SQL

12 mois
400-550 €
75000, Paris, Île-de-France
Contexte Dans le cadre d’une stratégie Data, mise en place d’un système MDM (Master Data Management) basé sur une Data Platform pour centraliser et exposer les référentiels via APIs. Mission Intégré à l’équipe Data Referential, le Data Analyst intervient en lien avec les équipes Data & Analytics pour : Recueillir et formaliser les besoins métiers Rédiger user stories, critères de tests Réaliser des analyses de données et scripts ponctuels (SQL/Python) Concevoir et faire évoluer des datasets référentiels Contribuer à la qualité des données et à la modélisation Participer aux sujets de data catalog & metadata Documenter et accompagner la mise en production Environnement MDM (Neoxam DataHub), Data Platform Données utilisées pour : ESG, reporting, finance, front office Contexte international avec projets de migration Profil Data Analyst (3–6 ans d’expérience) SQL requis, Python apprécié Bonne maîtrise data modeling / data quality Capacité à faire le lien entre métier et technique Conditions Localisation : Paris Télétravail : jusqu’à 3 jours/semaine Durée : ~12 mois (2026–2027)
CDI

Offre d'emploi
Data Scientist / AI Engineer (Agentique) (H/F)

█ █ █ █ █ █ █
Publiée le
Docker
Python
Pytorch

52 500 €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
: Assistant RSSI e-Commerce & Big-Data 500 e par jour

BI SOLUTIONS
Publiée le
Big Data
Cybersécurité

2 ans
400-500 €
Île-de-France, France
: Assistant RSSI e-Commerce & Big-Data 500 e par jour Assister le RSSI dans la gestion de la gouvernance, la sécurisation des processus, la sécurité des développements, et la sécurité des infrastructures liées au e-Commerce et à la data de Carrefour France, regroupant plusieurs métiers tel que Voyages, Spectacles, Cartes Cadeaux, eCommerce Retail et BigData; en apportant une expertise technique et en assurant un rôle de challenge auprès des équipes informatiques et métiers. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. ● Connaissances des contraintes, technologies et risques liés à un site e-Commerce et aux services aux clients ● Connaissances des contraintes, technologiques et risques liés aux développements d’application web et mobile à destination des clients, mais aussi des collaborateurs. ● Connaissances des best practices de développement et des référentiels associés (OWASP) ● Connaissances des contraintes et technologies spécifiques au Big Data et la gestion du cycle de vie de la donnée et des contraintes réglementaires liées à la gestion de données personnelles. ● Sensibilité à la fraude client ● Techniques d’attaques courantes ● Bonnes pratiques ANSSI ● Protocoles de communications couramment utilisés ● Méthode Ebios RM d'analyse de risques 500 e par j
Freelance
CDI

Offre d'emploi
Data Quality Analyst h/f

Ela Technology
Publiée le
Alteryx
Batch
ETL (Extract-transform-load)

6 mois
Seine-Saint-Denis, France
🎯 Contexte & Enjeux Dans le cadre d’un programme de transformation d’envergure autour des processus KYC , une équipe dédiée à la qualité des données intervient au cœur du dispositif pour sécuriser la migration vers un outil cible commun et garantir l’intégrité des données entre plusieurs systèmes historiques. L’enjeu est double : accompagner les déploiements tout en assurant une continuité opérationnelle sans rupture , dans un environnement international et fortement industrialisé. Suite à un départ à la retraite programmé en milieu d’année , une mission clé est ouverte afin d’assurer la reprise, la stabilisation et l’évolution des processus existants. 🚀 Mission Au sein de l’équipe Data Quality, vous êtes garant(e) de la fiabilité des données , du bon déroulement des réconciliations et de la continuité de la chaîne de valeur , depuis les systèmes legacy jusqu’à la solution cible. Votre mission s’articule autour de deux piliers équilibrés : 🧩 50 % Développement | ⚙️ 50 % Production & Pilotage opérationnel Vos responsabilités principales Qualité & Migration des données Piloter les réconciliations quotidiennes , en mode run the business , pour assurer un flux de données continu. Piloter les réconciliations hebdomadaires , préparer et suivre les indicateurs de performance (KPI) . Superviser les processus de bulk permettant la remédiation des données dans l’outil cible. Garantir la conformité des données migrées tout au long du programme. Développement & Maintenance Maintenir, faire évoluer et sécuriser un socle VBA existant (lecture, débogage, amélioration, mises en production). Assurer la stabilité et la traçabilité des évolutions de code. Environnement collaboratif Assurer l’ administration et la migration de SharePoint vers la version Online : Organisation documentaire Gestion des accès et permissions Migration des environnements et livrables. Gouvernance & Continuité opérationnelle Être le/la garant(e) de la rigueur opérationnelle , du respect des SLA et des processus. Veiller à ne jamais interrompre l’activité des Task Forces internationales (Inde & Portugal). Documenter les procédures et accompagner la structuration des processus pérennes vers l’architecture cible.
CDI

Offre d'emploi
Data Manager Chef de Projets Clinique Support- Clinical Data Management Project Leader Support H/F

█ █ █ █ █ █ █
Publiée le
Data management

Rennes, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Consultant Senior Data Catalog Collibra (H/F)

ASTRELYA
Publiée le
Collibra
Data governance
IA

92800, Puteaux, Île-de-France
Votre mission : En tant que Consultant Data Catalog spécialisé Collibra, vous accompagnerez nos clients dans la structuration, l’opérationnalisation et la gouvernance de leur Data Catalog. Vous interviendrez sur des projets stratégiques visant à renforcer la maîtrise, la qualité et la valorisation des données, en vous appuyant sur les capacités avancées de Collibra Data Intelligence Platform. Votre rôle sera clé pour aider les organisations à déployer un Data Catalog robuste, gouverné, adopté et aligné avec les enjeux Data & IA Concrètement, vous allez : 1. Structurer & Opérationnaliser le Data Catalog · Définir la stratégie Data Catalog et accompagner les clients dans leur transformation Data Governance. · Paramétrer Collibra : communautés, domaines, rôles, workflows, policies, règles de qualité, operating model. · Concevoir et adapter le métamodèle Collibra : Data Domains, Data Sets, Data Elements, Data Owners, Stewards, modèles IA, indicateurs de qualité… · Mettre en place les connecteurs d’ingestion (Collibra Connect, Collibra Data Quality, ingestion automatisée). · Modéliser les objets métiers et assurer leur documentation dans Collibra. · Déployer les workflows de gouvernance (validation, certification, demandes d’accès, gestion des changements). 2. Assurer la valorisation & l’adoption du Data Catalog · Définir et déployer les cadres de Data & AI Governance. · Structurer les Data Domains, Data Objects, Data Contracts, glossaires métier et usages IA. · Accompagner les Data Owners, Stewards et équipes IT dans la prise en main de Collibra. · Concevoir des parcours d’acculturation : formations, vidéos, kits, communautés Data, webinaires. · Promouvoir les bonnes pratiques d’usage et faire évoluer la culture Data. Votre futur environnement de travail : · Data Catalog : Collibra (Data Governance, Data Quality, Lineage, Workflow, Operating Model). · Outils de documentation & IA Responsable : Model Cards, risk matrices, AI Act traceability. · Outils collaboratifs : Notion, Miro.
5718 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous