Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 684 résultats.
Freelance

Mission freelance
DATA ANALYST ASSET MANAGEMENT REFERENTIEL (NEOXAM)

PARTECK INGENIERIE
Publiée le
Data quality
Python
SQL

12 mois
400-550 €
75000, Paris, Île-de-France
Contexte Dans le cadre d’une stratégie Data, mise en place d’un système MDM (Master Data Management) basé sur une Data Platform pour centraliser et exposer les référentiels via APIs. Mission Intégré à l’équipe Data Referential, le Data Analyst intervient en lien avec les équipes Data & Analytics pour : Recueillir et formaliser les besoins métiers Rédiger user stories, critères de tests Réaliser des analyses de données et scripts ponctuels (SQL/Python) Concevoir et faire évoluer des datasets référentiels Contribuer à la qualité des données et à la modélisation Participer aux sujets de data catalog & metadata Documenter et accompagner la mise en production Environnement MDM (Neoxam DataHub), Data Platform Données utilisées pour : ESG, reporting, finance, front office Contexte international avec projets de migration Profil Data Analyst (3–6 ans d’expérience) SQL requis, Python apprécié Bonne maîtrise data modeling / data quality Capacité à faire le lien entre métier et technique Conditions Localisation : Paris Télétravail : jusqu’à 3 jours/semaine Durée : ~12 mois (2026–2027)
Freelance
CDI

Offre d'emploi
Architecte Big data sur le Havre

EterniTech
Publiée le
Big Data
Data Lake
Data science

3 mois
Le Havre, Normandie
Je cherche pour un de mes client un Architecte Big data sur le Havre Missions principales : Conception, mise en place et évolution d’architectures data modernes (Data Lakes, Data Warehouses) adaptées aux enjeux métiers et aux volumes de données. Développement et industrialisation de pipelines de données (ingestion, transformation, orchestration) dans des environnements Big Data. Intégration et valorisation des données pour alimenter des cas d’usage avancés, notamment en data science et intelligence artificielle. Développement de modèles analytiques et algorithmes de data science en réponse aux problématiques métiers. Création de tableaux de bord et reporting décisionnel via des outils BI tels que Qlik et Microsoft Power BI. Mise en œuvre et optimisation de moteurs de recherche et d’indexation avancée basés sur Elasticsearch (expertise clé). Gestion, enrichissement et évolution du catalogue de données (data catalog) afin de garantir la gouvernance et la qualité des données. Activités transverses : Analyse des systèmes existants et animation d’ateliers avec les parties prenantes pour cadrer les besoins. Définition des standards techniques, bonnes pratiques et architectures cibles. Dimensionnement, chiffrage et cadrage des solutions data. Accompagnement des équipes projet dans la mise en œuvre des solutions et suivi opérationnel. Transfert de compétences et montée en autonomie des équipes internes. Rédaction de documentation technique, cahiers des charges et rapports d’études. Réalisation d’audits techniques et amélioration continue des processus data. Veille technologique et conseil stratégique sur les outils et architectures data. Environnement technique : Big Data, Data Lake, Data Warehouse, ETL/ELT, Elasticsearch, Qlik, Power BI, Data Catalog, IA / Data Science.
CDI

Offre d'emploi
Business Data Analyst Confirmé F/H - Marketing (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data

Montrouge, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Scientist et IA H/F

Le Groupe SYD
Publiée le
BI
IA Générative
Intelligence artificielle

50k-60k €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes (44) 🏠 Télétravail : 2 jours par semaine ✔ Démarrage ASAP ✏ CDI client final (pré-embauche) 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Data Scientist et IA H/F afin d'intégrer la Data Factory de notre client. Au sein d'un équipe composée de 2 Data Scientists, tes missions sont : Accompagner la transformation digitale numérique, data et IA du client Gérer les projets IA / Data adaptés à l'entreprise Participer aux projets qui concernent tous les domaines fonctionnels (finance, supply chain, ressources humaines...) Comprendre les enjeux métiers des projets Participer aux lancements des nouveaux projets et assurer les RUN des projets déjà livrés Effectuer de la veille technique et documentaire ( bon niveau en anglais écrit et lu demandé )
Freelance
CDI
CDD

Offre d'emploi
Lead Tech / CDP Full Stack — .NET Core 10 • Vue.js • Microservices • Kubernetes • Dapr

Craftman data
Publiée le
Azure DevOps
Microsoft SQL Server

12 mois
40k-45k €
400-650 €
Le Havre, Normandie
Notre client engage la modernisation complète de son SI, du legacy .NET Framework / BizTalk / SQL Server vers une architecture cloud-native micro-services (.NET Core 10, Kubernetes, Dapr, PostgreSQL, Vue.js). Nous cherchons LE Lead Tech qui sait à la fois architecturer, coder et embarquer une équipe. Hands-on à 30-50 %, vous êtes la pierre angulaire entre les architectes, les développeurs et le Directeur de Programme. La mission Vous prenez le lead technique full stack des chantiers de transformation applicative. Vous animez les équipes au quotidien en contexte agile, suivez l'avancement dans Azure DevOps, contribuez activement au code (30 % à 50 % du temps) et portez les décisions techniques back & front. Vous êtes rattaché au Directeur de Programme et travaillez en binôme étroit avec l'équipe architecture. Le contexte technique Modernisation du SI vers une architecture cloud-native micro-services : Stack actuelle .NET Framework, App Services Azure, SQL Server, BizTalk, Windows, Vue.js Stack cible .NET Core 10, Kubernetes, Docker / Podman, Linux, PostgreSQL, Dapr, Vue.js Vos terrains de jeu1. Lead .NET microservices • Définir, challenger et implémenter les architectures (clean / hexagonale) avec les architectes • Trancher les décisions techniques back & front et débloquer les sujets complexes • Contribuer au développement .NET Core 10+ et Vue.js, orienté micro-services (K8s, Dapr) • Relire le code, faire du pair programming, animer les revues techniques 2. Pilotage technique & agilité • Animer les rituels agiles (daily, sprint planning, refinement, rétros) avec pragmatisme • Suivre l'avancement dans Azure DevOps (backlog, sprints, bugs) • Lever les blocages des développeurs et sécuriser les engagements de sprint • Maintenir une visibilité claire sur l'avancement technique full stack 3. Collaboration avec l'architecture • Aligner les implémentations full stack sur la vision globale portée par les architectes • Participer aux ateliers d'architecture back / front et aux arbitrages techniques • Garantir l'application des patterns et standards architecturaux • Faire le lien entre les décisions d'architecture et leur mise en œuvre opérationnelle 4. Delivery & industrialisation CI/CD • Contribuer à la mise en place des pipelines CI/CD avec les DevOps • Superviser les déploiements et la qualité des livrables • Capitaliser sur les patterns réutilisables (microservices + UI Vue.js, Dapr)
Freelance
CDI

Offre d'emploi
Consultant Data Governance & Data Migration (H/F)

Deodis
Publiée le
Data governance
Data Lake

1 an
38k-50k €
430-600 €
Île-de-France, France
En tant que Consultant Data spécialisé en gouvernance et migration, vous intervenez au cœur d’un programme stratégique de transformation visant à structurer, fiabiliser et harmoniser les flux de données dans un environnement complexe. Intégré(e) au Data Office, vous jouez un rôle clé dans la définition des besoins métiers, la conception des flux de données et le pilotage des livraisons, tout en garantissant la qualité, la traçabilité et la conformité des données. À ce titre, vous animez des ateliers avec les équipes métiers et IT afin de recueillir et formaliser les besoins data, réalisez des analyses d’écart entre les systèmes existants et les solutions cibles, et concevez les data lineage de bout en bout. Vous participez activement aux ateliers de conception fonctionnelle et technique, en apportant votre expertise sur les enjeux de gouvernance, de qualité et d’architecture des données. Vous êtes également en charge du pilotage de la roadmap data, en assurant le suivi des livraisons, l’identification des dépendances critiques et la gestion des risques. Vous maintenez un backlog structuré, suivez les indicateurs de performance et contribuez à la mise en place des standards de gouvernance et de qualité définis par le Data Office. Enfin, vous agissez comme référent sur votre périmètre, en accompagnant les équipes dans l’adoption des bonnes pratiques, en produisant une documentation de qualité (data dictionaries, processus, cartographies de flux) et en contribuant aux actions de change management dans un contexte de transformation à grande échelle.
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Python / Azure Sénior

VISIAN
Publiée le
Azure Data Factory
Azure DevOps
Python

1 an
Paris, France
Contexte La Direction des Systèmes d’Information recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l’exploitation des données. Missions Mener les projets d’intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d’optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger (Anglais) pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d’optimiser les architectures Contribuer à l’amélioration de la gouvernance sur la protection et la confidentialité des données Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l’entreprise
Freelance
CDI
CDD

Offre d'emploi
Ingénieur SRE (H/F)

RIDCHA DATA
Publiée le
Ansible
AWS Cloud
Azure

1 an
40k-45k €
400-500 €
La Défense, Île-de-France
🧩 Contexte de la mission Dans un environnement complexe et exigeant, vous intervenez au sein d’une équipe SRE (Site Reliability Engineering) afin d’assurer la fiabilité, la performance et la disponibilité de plateformes critiques en production. Le projet s’inscrit dans un contexte de transformation et d’industrialisation des systèmes, avec une forte orientation vers l’automatisation, la qualité de service et l’amélioration continue. 🎯 Vos missions principales Rattaché(e) au responsable SRE, vous intervenez sur les activités suivantes : Assurer la gestion opérationnelle des applications critiques en haute disponibilité Participer à la maintenance et à l’évolution des plateformes techniques (environnements Linux, Docker, Kubernetes) Gérer des environnements hybrides (Cloud & Data Center privé) Contribuer à la sécurisation des plateformes (design, configuration, implémentation) Développer et améliorer des outils liés à la production Optimiser le monitoring technique et fonctionnel des plateformes Garantir le maintien en condition opérationnelle (MCO) et la performance des systèmes Gérer les incidents, évolutions et reporting dans le respect des SLA Participer à la mise en production via des tests automatisés (unitaires, fonctionnels, smoke tests) Apporter un support technique aux équipes internes et utilisateurs Participer aux astreintes (support 24/7) 🛠️ Compétences requises ✔️ Techniques Développement (niveau confirmé) SRE / Production Engineering (confirmé) Environnements Linux / UNIX Conteneurisation : Docker, Kubernetes Outils : Git, Jenkins, Ansible / Saltstack Cloud : AWS / Azure Monitoring : Grafana, Zabbix, Nagios Scripting : Bash Notions en réseaux distribués ➕ Atouts Kubernetes (certification CKA appréciée) Java / SQL Architecture API Normes ITIL / Sécurité SI (ISO 27001) Connaissances en cryptographie / PKI
CDI

Offre d'emploi
Data Scientist et IA H/F

Le Groupe SYD
Publiée le
BI
IA Générative
Intelligence artificielle

50k-60k €
La Roche-sur-Yon, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : La Roche Sur Yon (85) 🏠 Télétravail : 2 jours par semaine ✔ Démarrage ASAP ✏ CDI client final (pré-embauche) 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Data Scientist et IA H/F afin d'intégrer la Data Factory de notre client. Au sein d'un équipe composée de 2 Data Scientists, tes missions sont : Accompagner la transformation digitale numérique, data et IA du client Gérer les projets IA / Data adaptés à l'entreprise Participer aux projets qui concernent tous les domaines fonctionnels (finance, supply chain, ressources humaines...) Comprendre les enjeux métiers des projets Participer aux lancements des nouveaux projets et assurer les RUN des projets déjà livrés Effectuer de la veille technique et documentaire ( bon niveau en anglais écrit et lu demandé )
CDI

Offre d'emploi
Data Scientist Alternance (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data
Python
SQL

Lille, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
Administrateur Cloudera CDP & CDP Data Services (environnement OpenShift) TJM MAX 500

Craftman data
Publiée le
Cloudera
Hadoop
Kubernetes

8 mois
40k-45k €
400-550 €
Paris, France
Description du poste Dans le cadre du développement de ses plateformes data, l’entreprise recherche un administrateur spécialisé sur des solutions de type CDP et les services de données associés, notamment Private Cloud (PVC), évoluant dans un environnement conteneurisé OpenShift. Rattaché à l’équipe infrastructure ou data platform, le collaborateur intervient sur l’exploitation, l’administration et l’optimisation des plateformes big data, tout en garantissant leur disponibilité, leur performance et leur sécurité. Missions principales L’administrateur est responsable du bon fonctionnement de la plateforme CDP et de ses services data. Il assure l’installation, la configuration et la maintenance des environnements CDP Private Cloud ainsi que des services de données associés. Il prend en charge le déploiement et l’administration des services CDP Data Services (tels que Data Warehouse, Machine Learning ou Data Engineering) en s’appuyant sur l’infrastructure OpenShift. Il surveille en continu les performances de la plateforme et met en place des actions correctives ou d’optimisation afin de garantir un niveau de service optimal. Il participe à la gestion des incidents et des problèmes en analysant les causes racines et en proposant des solutions durables. Il veille à la bonne intégration des composants CDP avec l’écosystème technique existant, notamment les systèmes de stockage, de sécurité et de réseau. Il contribue à l’automatisation des tâches d’administration et de déploiement à travers des scripts ou des outils d’infrastructure as code. Il travaille en étroite collaboration avec les équipes data, DevOps et sécurité afin de faciliter l’usage de la plateforme et d’assurer sa conformité aux standards internes. Responsabilités techniques L’administrateur assure la gestion des clusters CDP Private Cloud (PVC), incluant leur installation, leur montée de version et leur maintenance corrective et évolutive. Il administre les environnements OpenShift utilisés pour héberger les services CDP Data Services et garantit leur bon dimensionnement. Il configure et maintient les services essentiels tels que Hive, Spark, Impala, HDFS et les services Kubernetes intégrés. Il met en œuvre les politiques de sécurité, notamment l’authentification (Kerberos, LDAP), la gestion des accès et le chiffrement des données. Il supervise les ressources système (CPU, mémoire, stockage) et optimise leur utilisation. Il participe à la mise en place de solutions de supervision et de logging adaptées à l’environnement. Compétences requises Le candidat possède une solide expérience sur la plateforme CDP, en particulier en environnement Private Cloud. Il maîtrise les concepts et l’administration d’OpenShift et des environnements Kubernetes. Il dispose de bonnes connaissances des composants big data tels que Hadoop, Spark, Hive et des outils associés. Il comprend les problématiques liées aux architectures distribuées, à la haute disponibilité et à la performance des systèmes. Il est à l’aise avec les environnements Linux et les outils d’automatisation (shell scripting, Ansible ou équivalent). Une bonne compréhension des enjeux de sécurité des données est attendue. Profil recherché Le poste s’adresse à un profil autonome, rigoureux et capable d’intervenir dans des environnements techniques complexes. Le candidat fait preuve d’un bon esprit d’analyse et de synthèse, et sait travailler en équipe avec des interlocuteurs variés. Une expérience dans un contexte DevOps ou data platform constitue un atout important. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Warehouse, Data Engineering, Machine Learning) OpenShift / Kubernetes Hadoop ecosystem (HDFS, Hive, Spark, Impala) Linux (RedHat / CentOS) / Outils de monitoring et de logging
CDI

Offre d'emploi
DATA STEWARD CRM / DATA GOVERNANCE H/F

Savane Consulting
Publiée le

60k-75k €
Seine-et-Marne, France
Contexte du poste : Nous recherchons un Data Steward afin d’intervenir au sein de la Direction Commerciale, dans le cadre du déploiement d’un CRM Sales. Vous interviendrez sur un périmètre stratégique (offres commerciales, contrats, produits) avec un enjeu clé autour de la migration, de la qualité et de la gouvernance des données. Vous intégrerez un programme structurant avec des jalons majeurs à court terme, où la qualité des données sera déterminante pour la réussite des mises en production. Votre rôle sera central pour assurer la fiabilité, la structuration et la valorisation des données métiers, en lien étroit avec les équipes commerciales, la DSI et les équipes projet CRM. Missions principales : Piloter la migration des données vers le CRM (stratégie, mapping source/cible, fichiers d’import) Formaliser les cycles de vie des référentiels (contrats, campagnes, produits) Consolider les impacts liés aux évolutions des applications (décommissionnement, couplage SI) Animer des ateliers métiers pour accompagner les changements de pratiques Définir et mettre en œuvre les règles de qualité des données (complétude, cohérence, fraîcheur) Mettre en place le monitoring de la qualité (Power BI ou équivalent) Produire les supports de formation liés aux bonnes pratiques data Contribuer au catalogage des données dans Collibra Documenter les référentiels et les univers de données (offres, contrats, produits) Définir les règles de gouvernance de la donnée avec les parties prenantes Assurer le suivi continu de la qualité des données Documenter les impacts des évolutions des référentiels sur le SI Produire les reportings et bilans de suivi
Freelance

Mission freelance
Data Quality Analyst – VBA & Reconciliation

PARTECK INGENIERIE
Publiée le
Data quality
VBA

12 mois
400-500 €
Paris, France
Dans le cadre d’un programme de transformation KYC d’un grand groupe bancaire, intervention au sein d’une équipe Data Quality en charge de la fiabilité, réconciliation et migration des données entre systèmes legacy et plateforme cible. Rôle hybride 50% développement / 50% production : maintenance et évolution de scripts VBA pilotage des réconciliations de données et des traitements de remédiation (bulk) garantie de la continuité des flux vers des équipes internationales administration et migration SharePoint Online Intervention dans un environnement critique nécessitant rigueur, organisation et réactivité , avec respect des SLA et gestion de flux en continu. Stack principale : VBA, SQL, PowerShell, SharePoint (+ outils de ticketing et reporting). Objectif : assurer la continuité opérationnelle , sécuriser les flux de données et accompagner la migration vers les systèmes cibles jusqu’au décommissionnement des legacy. Profil : expérience confirmée en VBA / data processing , bonne capacité d’analyse, gestion multi-sujets et anglais professionnel.
CDI

Offre d'emploi
Data Manager / Data Steward

INFOGENE
Publiée le
Data management
Data quality

Malakoff, Île-de-France
Contexte Dans le cadre du renforcement de la gouvernance des données au sein d’un grand groupe industriel, nous recherchons un(e) Data Manager / Data Steward expérimenté(e), avec une forte sensibilité aux environnements métiers industriels et ERP. Missions principales Piloter la qualité des données (data quality management) Mettre en place et maintenir des référentiels de données fiables Réaliser la cartographie des données et des processus métiers Travailler en étroite collaboration avec les équipes métiers pour comprendre et structurer les flux de données Définir et suivre les indicateurs de qualité de données (KPIs) Participer à la gouvernance des données (data governance) Contribuer à l’amélioration continue des processus liés aux données dans les systèmes ERP Environnements métiers Vous interviendrez sur des domaines variés, notamment : Logistique Approvisionnement Achats Bâtiment / infrastructures Machines / production industrielle Compétences requises Expérience confirmée en Data Management / Data Stewardship Maîtrise des problématiques de qualité de données Expérience en cartographie des processus métiers Bonne connaissance des systèmes ERP (SAP ou équivalent) Capacité à interagir avec des interlocuteurs métiers variés Esprit analytique, rigueur et sens de l’organisation
CDI

Offre d'emploi
INGÉNIEUR SYSOPS / RUN DATA GCP - H/F

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

45k-50k €
Montigny-le-Bretonneux, Île-de-France
Missions Dans le cadre de vos fonctions, vous serez amené(e) à intervenir sur une plateforme DATA critique, en assurant son bon fonctionnement et son amélioration continue. À ce titre, vous allez être amené(e) à : • Assurer le RUN et l'exploitation d'une plateforme DATA critique, en garantissant sa disponibilité, sa performance et sa stabilité au quotidien. • Analyser et résoudre les incidents liés aux traitements et aux pipelines de données, en identifiant rapidement les causes et en mettant en place des actions correctives adaptées. • Améliorer la supervision existante et contribuer à la fiabilisation du RUN, notamment via la mise en place d'outils de monitoring, d'alerting et de bonnes pratiques d'exploitation. • Participer aux tests et au déploiement des évolutions techniques, en veillant à la qualité, à la non-régression et à l'intégration fluide dans l'environnement existant. • Documenter les incidents et capitaliser sur les retours d'expérience, afin d'améliorer en continu les processus, les procédures et la connaissance globale de la plateforme. • Collaborer étroitement avec les équipes DATA et applicatives, en favorisant la communication, le partage d'information et la résolution transverse des problématiques. Référence de l'offre : kcd9qi161r
Freelance

Mission freelance
Développeur Python Senior | RESIM ADAS | Environnement Cloud & HPC

RIDCHA DATA
Publiée le
Bash
Calcul hautes performances (HPC)
DevOps

1 an
Boulogne-Billancourt, Île-de-France
Nous recherchons un Développeur Python Senior pour intervenir sur une plateforme stratégique de re-simulation ADAS, au cœur des enjeux de validation des projets véhicules. Cette plateforme s’appuie sur des infrastructures cloud pour exécuter des chaînes complexes de simulation, intégrant : • des traitements batch intensifs (CPU / GPU) • des workflows majoritairement développés en Python • des environnements cloud • de fortes exigences en robustesse, performance, traçabilité et automatisation Le projet est critique pour le respect des jalons véhicules et s’inscrit dans une démarche d’amélioration continue des capacités de simulation. 🎯 Votre mission En lien direct avec les équipes de développement et les référents techniques, vous serez en charge de : • Développer, maintenir et optimiser les scripts Python des chaînes de simulation • Améliorer la robustesse, la lisibilité et la maintenabilité du code existant • Optimiser les performances des traitements et l’utilisation des ressources IT (CPU, RAM, GPU, stockage, réseau) • Industrialiser et automatiser les workflows techniques • Contribuer à l’analyse et à la résolution d’incidents complexes • Participer aux choix techniques et aux architectures logicielles • Mettre en place les bonnes pratiques de développement (tests, qualité, logging, sécurisation) • Participer aux rituels Agile du projet 📦 Livrables attendus • Code Python documenté et conforme aux standards projet • Scripts et outils d’automatisation opérationnels • Documentation technique (conception, usage, intégration) • Rapports d’optimisation de performance si nécessaire • Bilans des tests unitaires et d’intégration réalisés
5684 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous