Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 876 résultats.
CDI

Offre d'emploi
Data Steward / Référent Qualité et Gouvernance des Données

Enterprise Digital Resources Ltd
Publiée le
Data governance
Data Lake
PL/SQL

Paris, France
Data Steward / Référent Qualité et Gouvernance des Données. Rattaché(e) au Responsable équipe Data, vos missions s'articuleront autour des volets suivants : Gouvernance et gestion de la donnée Définir et maintenir les règles de gouvernance de données (standards, nomenclatures, référentiels). Assurer la gestion du data catalog et la documentation des jeux de données. Identifier les propriétaires de données ( data owners ) et coordonner les processus de validation. Qualité des données Mettre en place et suivre les indicateurs de qualité (complétude, exactitude, unicité, fraîcheur…). Gérer et suivre les incidents et anomalies de qualité. Proposer des plans d’amélioration et suivre leur mise en œuvre avec les équipes techniques et métiers. Sécurité et conformité Veiller au respect des règles RGPD, sécurité et conformité interne liées aux données. Participer aux analyses d’impacts (DPIA) et aux audits de conformité. Support et coordination métier Comprendre les besoins métiers et garantir l’adéquation entre les données disponibles et leur usage. Former et accompagner les utilisateurs sur les bonnes pratiques de gestion des données. Servir de point de contact entre l’équipe Data et les équipes métier.
Alternance
CDI

Offre d'emploi
Ingénieur / Ingénieure data scientist (H/F)

█ █ █ █ █ █ █
Publiée le

Yville-sur-Seine, Normandie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
245891/Data engineer Spark Nantes

WorldWide People
Publiée le
Apache Spark

12 mois
Nantes, Pays de la Loire
Data engineer Spark Nantes La Squad Socles-Data a pour missions : • Le MCO de la plateforme Data Hub actuelle (DH V1). • La co-construction des nouvelles offres Data managées du nouveau Data Hub (DH V2) avec l’IT Groupe : o Prototypes, o Bêta-tests, o Pilotes, o Instanciation, o Homologation…etc. • La définition des normes, bonnes pratiques, guidelines pour simplifier/accélérer les futurs portages applicatifs sur Data-Hub V2. • Gouvernance opérationnelle. • La migration des Uses-Cases existants vers le Data-Hub V2 dans le Cloud privé BNPParibas. • Facilitage de l’usage des services Data. • Assurance du support et l’accompagnement des usagers des socles-Data. • Fournissement de l’expertise. Objectifs et livrables Les tâches sont: Data ingénieur : • Codage et testage des composants logiciels. • Formalisation des cas d’usages. • Conception et mise en œuvre des flux d’intégration de données. • Optimisation de la performance et la qualité logicielle. • Apport du support technique. • Bonne maitrise de l’écosystème Data / Java / SQL / Cloud. • Notions dans d’autres langages de programmation (Python, Scala) et connaître le fonctionnement des bases de données (SQL, NoSQL). Technologie Langage Niveau Starburst (Trino) SQL Moyen Astronomer Airflow Python Moyen Spark 3 Java (Scala selon vos applications) Avancé Cloud (Kubernetes, COS(S3), Vault) Bas DevOps (Gitlab, Jenkins, ArgoCD, Ansible) Go, Yaml Bas Log As a Service (elk) Moyen Java Moyen SQL Moyen Python Moyen Scala (selon vos applications) Moyen Compétences demandées Compétences Niveau de compétence SCALA Confirmé Apache Airflow Confirmé APACHE Confirmé
Freelance

Mission freelance
Product Owner Data/BI (Lille)

SQLI
Publiée le
CoreData

6 mois
400-600 €
Lille, Hauts-de-France
Bonjour, Pour le compte de l'un de mes clients Lillois, je suis à la recherche d'un Product Owner Data orienté BI. Mandatory : Une expérience de projets Power BI, afin de piloter la transformation des outils de reporting. Ses responsabilités : • Cadrer et formaliser les besoins métiers, organiser les demandes et la solution BI. • Collaborer avec les sponsors internes de la transformation pour favoriser l’engagement autour du projet. • Animer des ateliers de Product Discovery pour comprendre les usages, les irritants, les objectifs et les indicateurs clés. • Construire et maintenir le backlog BI, prioriser les sujets et arbitrer les évolutions en lien avec les entités métiers. • Collaborer étroitement avec le Tech Lead, les développeurs BI et les équipes Data pour garantir la cohérence et la qualité des livrables. • Valider les maquettes, prototypes (Figma) et rapports développés, en assurant leur pertinence métier, leur lisibilité UX et leur conformité aux standards. • Contribuer à la mise en œuvre d’un Design System dataviz, assurant cohérence et appropriation des tableaux de bord. • Favoriser la montée en compétence des équipes métiers sur la lecture, l’usage et l’évolution des rapports. • Garantir une documentation fonctionnelle claire et à jour pour faciliter la maintenance et la réversibilité. • Suivre les indicateurs de Delivery du projet à présenter lors des instances de pilotage.
Freelance

Mission freelance
Senior Data Product Manager/ Data Mesh/ Cloud AWS & AZURE / Anglais (H/F)

Octopus Group
Publiée le
BI
Dataiku
Finance

6 mois
550-680 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, Senior Data Product Manager Contexte de la mission : Il s'agit d'un poste à la fois stratégique et hautement opérationnel, chargé de la mise en œuvre concrète et du déploiement de la plateforme de données en libre-service du Groupe, fondée sur les principes du Data Mesh. Le Senior Data Product Manager est responsable de la mise en œuvre pratique, de l'industrialisation et de l'adoption à l'échelle de l'entreprise de la plateforme dans l'ensemble des domaines d'activité. Ce poste requiert un profil orienté vers la construction et l'exécution, capable de définir la vision et de la traduire en une plateforme évolutive, de qualité production et utilisable à grande échelle. Mission Principale : Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform - GDP) en tant que produit interne, en garantissant sa mise en œuvre technique, son adoption par l'entreprise, l'excellence opérationnelle et l'amélioration continue. Gestion de produit (axée sur l'utilisation) et amélioration continue Responsabilités : Identifier les besoins des utilisateurs et les exigences de la plateforme Définir la vision du produit et la feuille de route Mesurer l'utilisation et la création de valeur Améliorer l'expérience des développeurs et des utilisateurs Résultats attendus : Vision du produit et proposition de valeur Indicateurs clés de performance (KPI) de la plateforme et mesures d'adoption Boucles de retour d'information des utilisateurs et liste des améliorations à apporter Feuille de route pour l'amélioration de la plateforme Fourniture de la plateforme (responsabilité principale) Responsabilités : Définir les capacités de la plateforme (produits de données, pipelines, gouvernance, observabilité, accès en libre-service) Définir et faire respecter les normes techniques et les modèles d'architecture Prendre des décisions techniques concrètes et valider les solutions Livrables attendus : Comptes rendus des décisions d'architecture (ADR) Modèles d'architecture de référence et gabarits réutilisables Feuille de route des capacités de la plateforme Normes techniques de la plateforme Architecture et infrastructure cloud Responsabilités : Coordonner la conception et l'exploitation de l'architecture cloud et hybride en collaboration avec l'architecte de données du groupe Coordonner avec l'équipe de mise à disposition des données du groupe la mise en œuvre sur Amazon Web Services et Microsoft Azure Diriger l'intégration des systèmes sur site Veiller au respect des exigences en matière de sécurité et de conformité Résultats attendus : Plan directeur de l'architecture cloud (avec l'aide de l'architecte de données du groupe) Cadre de sécurité et de gestion des accès Gestion de la livraison et de l'exécution Responsabilités : Gérer le cycle de vie de la livraison de la plateforme Définir le backlog et le processus de hiérarchisation des priorités Gérer les versions et le déploiement en production Suivre les performances et la fiabilité Gérer les risques et les problèmes techniques Livrables attendus : Feuille de route de la plateforme (court / moyen / long terme) Backlog produit et cadre de priorisation Plan de lancement et processus de gestion des versions Tableaux de bord de suivi des livraisons SLA de la plateforme / indicateurs de fiabilité Déploiement et adoption par les domaines métier Responsabilités : Déployer la plateforme dans l'ensemble des domaines métier Permettre aux équipes métier de créer des produits de données Mettre en œuvre le modèle opérationnel Data Mesh Accompagner l'intégration et l'adoption Résoudre les difficultés opérationnelles liées à l'adoption Résultats attendus : Cadre et processus d'intégration des domaines métier Directives relatives au cycle de vie des produits de données Guides de mise en œuvre pour les domaines métier Indicateurs d'adoption et d'utilisation Supports de formation et documentation d'intégration Documentation, normalisation et gouvernance Responsabilités : Documenter les capacités et les processus de la plateforme Veiller au respect de la gouvernance fédérée des données computationnelles du groupe Résultats attendus : Référentiel de documentation de la plateforme Normes techniques et directives de mise en œuvre Cadre de gouvernance et de conformité Guides des meilleures pratiques Communication opérationnelle et rapports à la direction Responsabilités : Communiquer sur l'avancement et l'impact de la plateforme Fournir des rapports destinés à la direction Assurer la coordination entre les parties prenantes Livrables attendus : Tableau de bord du projet destiné à la direction Tableaux de bord sur les performances de la plateforme Présentations au comité de pilotage Suivi des décisions, des risques et des problèmes Promotion interne et évangélisation Responsabilités : Promouvoir la valeur de la plateforme au sein de l'organisation Soutenir les initiatives d'adoption en interne Développer la communauté autour de la plateforme Livrables attendus : Supports de communication internes relatifs à la plateforme Stratégie d'adoption et plan de déploiement Démonstrations de la plateforme et recueil de cas d'utilisation
Freelance
CDI

Offre d'emploi
Data Engineer / Développeur PostgreSQL – Full Remote

STHREE SAS pour COMPUTER FUTURES
Publiée le
PostgreSQL

6 mois
Paris, France
Nous recherchons un Data Engineer / Développeur PostgreSQL confirmé pour intervenir sur un projet stratégique au sein d’une équipe technique dynamique. Missions : Développement et optimisation de procédures stockées Rédaction et amélioration de requêtes complexes PostgreSQL Participation à la structuration et au maintien de l’architecture data Contribution aux bonnes pratiques de développement et à l’amélioration continue Ce que nous offrons : Mission 100 % télétravail Projet long terme possible Contexte technique stimulant à forte valeur ajoutée Intégration au sein d’une équipe experte
Freelance

Mission freelance
Lead Data (DBT / Databricks / Power BI)

HOXTON PARTNERS
Publiée le
Databricks
DBT
PowerBI

9 mois
650-700 €
Suisse
Dans le cadre du renforcement de ses équipes data, nous recherchons un Lead Data pour accompagner un client basé en Suisse sur des enjeux stratégiques autour de la data platform et de la valorisation des données. Vos missions : Prendre le lead d’une équipe de 4 développeurs data Piloter les développements et garantir la qualité des livrables Concevoir et faire évoluer l’architecture data Mettre en place et optimiser les flux de transformation avec dbt Exploiter la plateforme Databricks pour le traitement et la gestion des données Accompagner les équipes métiers sur la visualisation via Power BI
Freelance

Mission freelance
Data Analyst confirmé Powerbi, SQL, Python Nantes/st

WorldWide People
Publiée le
Data analysis

12 mois
320-350 €
Nantes, Pays de la Loire
Data Analyst confirmé Powerbi, SQL, Python Nantes Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données. 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Powerbi, SQL, Python Prestation Data Analyst confirmé (Min 3 ans exp sur la fonction) Tâches : • apporte un appui analytique à la conduite d’exploration et à l’analyse complexe de données Métiers permettant de fournir des indicateurs concrets. • identifie les données les plus intéressantes et les rends exploitables (structuration, normalisation, documentation) • assure la qualité et la fiabilité de ces données. • dégage des logiques de génération d’indicateurs pour les Métiers. • dégage des tendances en utilisant ses compétences statistiques. • conçoit les tableaux de bord nécessaires à la restitution des différents indicateurs sous la forme de Data visualisation. Compétences Technique : • Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données.
CDI
Freelance

Offre d'emploi
Data Analyst Sénior

Inventiv IT
Publiée le
Batch
BigQuery
ClickHouse

1 an
Casablanca, Casablanca-Settat, Maroc
Mission Principale Rattaché au pôle Data/IA Fabric, votre objectif est de résoudre les divergences de données entre les différents environnements, notamment le On-Premise et le Cloud. Vous définissez les standards de mesure pour une zone internationale multi-pays et jouez un rôle moteur dans la transition vers une architecture unique, robuste et fiable. Responsabilités Audit et Réconciliation : Analyser les flux provenant de Firebase, Batch et Clickhouse pour identifier l'origine des écarts de KPIs, comme le nombre d'utilisateurs actifs, entre BigQuery et Clickhouse. Standardisation des Métriques : Définir des règles de gestion communes et des mappings JSON/HTTPS unifiés pour garantir la cohérence des données, quel que soit le canal d'émission, tel que App Kiph ou Sent Apk. Optimisation de l'Architecture : Collaborer avec les ingénieurs pour migrer progressivement les traitements vers une architecture cible, avec une préférence pour GCP et BigQuery, tout en assurant l'intégrité de la donnée historique. Architecture cible robuste Gouvernance et Qualité : Mettre en place des dashboards de monitoring de la qualité de données et instaurer des alertes sur les seuils de divergence entre les sorties. Mise en place d'une modern Data Platform robuste Compétences Techniques Requises Maîtrise SQL Expert : Capacité à requêter et optimiser des volumes massifs sur BigQuery (GCP) et Clickhouse. Stack Data Mobile : Expérience significative avec l'écosystème Firebase et les outils de push notification comme Batch. Ingestion & Formats : Excellente compréhension des flux JSON/HTTPS et des problématiques de collecte de données via SDK ou APK. Modélisation : Maîtrise des principes d'ETL/ELT et de la construction de modèles de données robustes (la connaissance de dbt est un plus). Profil Recherché Formation : Diplôme d'Ingénieur ou Master en Data/Statistiques. Expérience : 5 ans minimum Soft Skills : Esprit analytique poussé, capacité à vulgariser des problématiques techniques complexes auprès d'interlocuteurs métiers et excellente communication pour coordonner plusieurs pays. L’indispensable INVENTIV IT Expérience avérée sur des projets de Data Platform & Data Market Place. Capacité à évoluer dans un contexte technologique mature incluant Databricks, Snowflake, Power BI et l'IA. Poste basé à Casablanca, Maroc Mode : Forfait/Régie Rythme : Hybride/à distance Profil sénior : 5 ans d’expérience minimum
Freelance

Mission freelance
Data engineer GCP Google cloud platform 500 e par jour

BI SOLUTIONS
Publiée le
Docker
Google Cloud Platform (GCP)

2 ans
400-500 €
Île-de-France, France
Data engineer GCP Google cloud platform 500 e par jour Mise en œuvre de la chaîne : o d’ingestion de données, o de validation de données, o de croisement de données, o de déversement dans le datalake des données enrichies • Développer dans le respect des règles d’architecture définies • Développer et documenter les user stories avec l’assistance du Product Owner et des chefs de projets • Produire les scripts de déploiement • Prioriser les corrections des anomalies • Assister les équipes d’exploitation • Participer à la mise en œuvre de la chaîne de delivery continue • Automatiser les tests fonctionnels Connaissances techniques : • Plateforme et environnement GCP (indispensable) • Environnement GKE • Stockage : HDFS / GCS • Traitement: Maitrise de l’écosystème Spark / Kafka / Scala • Planification : Airflow / Composer • Méthodologies : Scrum, Kanban, Git • DWH : SQL, BigQuery, BigTable • Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build 500 e par jour
Freelance

Mission freelance
Consultant SAP FI/CO + Data Migration

ALLEGIS GROUP
Publiée le
SAP FICO

1 an
400-550 €
Clamart, Île-de-France
Dans le cadre d’un projet SAP Finance en cours, notre client recherche un Consultant SAP FI/CO confirmé , capable d’intervenir à la fois sur la conception fonctionnelle , l’accompagnement des métiers et les travaux de migration de données . Le consultant interviendra en renfort sur un périmètre critique pour la bascule de fin d’année . Responsabilités principales Participation aux ateliers avec les équipes Finance & Controlling Analyse des besoins et rédaction de la documentation fonctionnelle (spécifications, process…) Contribution aux activités de Data Migration : mapping, validation, reprise, contrôle de cohérence Accompagnement des utilisateurs, support UAT, correction des anomalies Collaboration étroite avec les équipes techniques (ABAP, Data, Basis) Suivi d’avancement et reporting auprès du chef de projet
Freelance
CDI

Offre d'emploi
Data Analyst

KLETA
Publiée le
PowerBI
Reporting

3 ans
Paris, France
Dans le cadre d’un programme de transformation data et décisionnelle, nous recherchons un Data Analyst pour analyser, structurer et valoriser les données au service des décisions métiers. Vous travaillerez étroitement avec les équipes métiers pour comprendre leurs besoins, définir des indicateurs pertinents et proposer des analyses adaptées. Vous serez responsable de l’exploration des données, de la construction de modèles analytiques simples et de la création de tableaux de bord lisibles et actionnables via des outils tels que Power BI, Tableau, Qlik ou équivalents. Vous participerez à la définition et à la fiabilisation des KPIs, en collaboration avec les équipes Data Engineering pour garantir la qualité et la cohérence des données sources. Vous réaliserez des analyses ad hoc, identifierez des tendances et formulerez des recommandations basées sur les données. Vous contribuerez également à la documentation des analyses, à la structuration des reportings et à l’amélioration continue des usages data au sein de l’organisation.
Freelance

Mission freelance
Data Scientist (Modélisation statistique, reinforcement learning)-(h/f)

emagine Consulting SARL
Publiée le

36 mois
500-650 €
95700, Roissy-en-France, Île-de-France
Le poste de Data Scientist se concentre sur la modélisation statistique et l'apprentissage par renforcement, visant à renforcer une équipe déjà existante avec un expert capable de concevoir des modèles prédictifs tout en étant capable de contribuer à des mises en production. Responsabilités : Développer et affiner des modèles statistiques pour améliorer la prise de décision. Appliquer des techniques d'apprentissage par renforcement dans des projets d'optimisation. Collaborer avec les équipes de production pour mettre en place des modèles efficaces. Utiliser des outils de data science pour générer des insights à partir des données. Communiquer clairement les résultats de la modélisation aux parties prenantes. Must Have : Expérience significative en modélisation statistique. Expérience avec des moteurs de recommandation. Apprentissage par renforcement (reinforcement learning) Maîtrise de l'anglais. ( entretien en anglais ) Nice to Have : Connaissances en systèmes basés sur le cloud, en particulier GCP. Compétences en industrialisation de modèles. Solides compétences en data science et machine learning. Thèse de doctorat (PhD) en domaine pertinent. Autres détails : Urgence : ASAP. Lieu de travail : Roissy , 95700 Télétravail : 3 jours par semaine, 2 jours sur site
Freelance

Mission freelance
Consultant Senior Gouvernance des Données – Data Office

CAT-AMANIA
Publiée le
Data governance
Gouvernance

12 mois
500-560 €
Paris, France
🎯 Contexte de la mission Dans le cadre du renforcement de son activité Gouvernance de la Donnée, notre client – acteur majeur de la protection sociale – souhaite intégrer un consultant senior en gouvernance des données pour accompagner la structuration, la formalisation et le déploiement de ses politiques Data. L’équipe Data Office (3 personnes actuellement) intervient sur la définition des politiques de gestion des données et le suivi de leur mise en œuvre dans un environnement fédéré (métiers, SI, urbanistes, conformité, sécurité). 🚀 Vos missions Vous interviendrez en appui stratégique et opérationnel sur les axes suivants : 🔹 Gouvernance & Structuration Définition et formalisation des rôles et responsabilités (Data Owner, Data Steward, etc.) Mise en place et structuration du glossaire métier et du dictionnaire de données Définition des standards de catalogage et de gestion des métadonnées Contribution au choix des outils de gouvernance (évaluation fournisseurs en cours) 🔹 Cartographie & Connaissance des données Approfondissement de la cartographie des données (flux, lineage, dépendances) Exploitation de la cartographie à des fins de pilotage et gouvernance Articulation avec les capacités de la plateforme Data de l’entreprise 🔹 Qualité & Conformité Définition des modalités de suivi de la qualité des données Intégration des exigences RGPD et conformité réglementaire Formalisation des principes de gestion des habilitations et des accès 🔹 Animation & Acculturation Animation de la communauté Data dans un contexte fédéré Organisation d’ateliers, séminaires et communications Accompagnement à la montée en compétence de l’équipe interne 🧠 Profil recherché Expérience confirmée en Data Office (au moins 2 expériences significatives en gouvernance des données) Maîtrise des outils de gouvernance : Catalogage Gestion des métadonnées Glossaire / Dictionnaire Data Quality Lineage Data Product Bonne compréhension des architectures Data (ETL/ELT, transformation, exposition, monitoring) Expérience opérationnelle d’une plateforme Data Capacité à évoluer dans un environnement structuré et réglementé Excellentes capacités d’animation et de pédagogie
CDI

Offre d'emploi
Post doctorant en Télédétection / Data science

█ █ █ █ █ █ █
Publiée le
Git
Matlab
Ocaml

35 520-35 556 €
Wimereux, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer/DataOps - Maintenance prédictive - Python/Spark

Nicholson SAS
Publiée le
Ansible
Apache Airflow
Apache Spark

9 mois
300 €
Toulouse, Occitanie
Bonjour, Dans le cadre de ce besoin, nous recherchons un Data Engineer / DataOps – Maintenance prédictive (Python / Spark) pour intervenir sur un environnement technique exigeant et à forte valeur ajoutée. 📍 Informations clés Localisation : Toulouse (3 jours/semaine sur site) TJM max : 300 € Démarrage : 01/04/2026 Fin de mission : 31/12/2026 🚀 Contexte & mission Vous interviendrez au sein d’une équipe en charge d’un service de maintenance prédictive , dans un environnement hybride combinant : On-premise : Python, Airflow, Docker, GitHub CI/CD Cloud Azure : Databricks, PySpark, Azure Data Factory Service Platform : application web dédiée aux compagnies aériennes Dans ce cadre, vos principales responsabilités seront : Assurer le MCO des environnements (développement & production) Superviser et monitorer les environnements Databricks / Spark Concevoir, industrialiser et maintenir des pipelines de données en production Accompagner le déploiement d’algorithmes de maintenance prédictive (optimisation performance & coûts) Améliorer les processus d’ intégration, de versioning et de déploiement au sein de la Service Platform 🛠️ Environnement technique Langages & Data : Python, SQL, Pandas, Spark Cloud & Data : Azure (Databricks, Data Factory) Orchestration & pipelines : Airflow CI/CD & DevOps : GitHub, Docker, Terraform, Ansible Systèmes : Linux (RHEL / Ubuntu) Bonnes pratiques : PEP, industrialisation, monitoring 🎯 Profil recherché Data Engineer / DataOps avec minimum 3 ans d’expérience Solide expérience sur les environnements Python / Spark / Azure Capacité à évoluer sur des environnements production critiques (MCO, monitoring, performance) Bonne culture DevOps / CI-CD / automatisation Anglais professionnel requis
2876 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous