Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 176 résultats.
CDI

Offre d'emploi
DATA SCIENTIST

GRLCI
Publiée le
Python

Boulogne-Billancourt, Île-de-France
Nous recherchons pour l'un de nos clients un Data Scientist avec plus de 2 ans d'expérience pour renforcer une équipe data. Vous aurez pour mission : Participer à l’amélioration continue du SI : Explorer des données et production d’analyses, Identifier et mettre en œuvre des indicateurs de suivi et des solutions d’amélioration, Réaliser des Proof of Concept de solution pour des problématiques métiers ou SI. o Analyse du problème, o Identification de solutions potentielles, o Réalisation des solutions, o Vérification que le POC répond à la problématique, o Le cas échéant, aide à l’industrialisation du POC, · Veille sur les domaines de recherche en informatique, · Aide et accompagnement des équipes MOE et MOA sur les méthodes, algorithmes, technologies utilisées dans les POC.
Freelance
CDI

Offre d'emploi
Data scientist - (H/F)

CHARLI GROUP
Publiée le
AWS Cloud
Pandas
Python

2 ans
55k-62k €
400-550 €
Courbevoie, Île-de-France
Le Projet Rejoignez une équipe à la pointe de l'innovation pour concevoir, optimiser et industrialiser nos solutions d’Intelligence Artificielle Générative. Au cœur de nos enjeux, vous piloterez l'évolution de nos architectures RAG et de nos systèmes de recommandation pour transformer l'expérience utilisateur. Vous évoluez dans un environnement stimulant où l’expérimentation rencontre les exigences de la mise en production à grande échelle. Vos Missions : En tant qu'Ingénieur IA, votre quotidien s'articule autour de quatre piliers majeurs : 1. Architecture & Développement RAG Conception et optimisation de pipelines hybrides (BM25 + Recherche Vectorielle + Reranking). Expérimentations avancées sur les stratégies HyDE (Baseline, Sélectif, Hybride). Intégration et fine-tuning de LLM via AWS Bedrock (Claude Sonnet / Haiku). 2. Performance & Reranking Déploiement et tests de modèles de reranking (type Qwen) pour affiner la pertinence. Arbitrage constant sur le triptyque : Qualité / Latence / Coût . 3. Data Engineering & Ingestion Gestion du cycle de vie de la donnée : Chunking, génération d’embeddings (Titan) et indexation. Connexion et exploitation des sources de données ( Snowflake, S3 ). 4. Évaluation & Industrialisation Mise en place de frameworks d'évaluation ( RAGAS, DeepEval ) et suivi des métriques clés (nDCG@K, Recall, MRR). Passage à l'échelle des pipelines : robustesse, monitoring et gestion des "edge cases". Votre Stack Technique : Cloud / IA : AWS (Bedrock, Lambda, SageMaker, S3). LLM : Claude (Anthropic). Vector DB & Search : OpenSearch, FAISS. Data : Snowflake, Pandas, Python. Évaluation : RAGAS, DeepEval. Prêt(e) à relever le défi GenAI avec nous ? Postulez dès maintenant !
Freelance

Mission freelance
Lead / Data Engineer senior

Comet
Publiée le
Apigee
Google Cloud Platform (GCP)
Python

5 mois
210-630 €
Île-de-France, France
Bonjour à tous, notamment aux Data Engineers Seniors ⚙️ spécialisés sur GCP / BigQuery 🔎 Je cherche un Data Engineer Senior avec une forte dimension expertise technique et expérience en rôle de lead, pour rejoindre une data platform stratégique en pleine montée en puissance. L’objectif de la plateforme est de centraliser, transformer et exposer la donnée à grande échelle afin de supporter des cas d’usage analytics, BI et IA dans un environnement data moderne. La plateforme est déjà en place et entre dans une phase clé d’optimisation, de scalabilité et d’enrichissement des usages (notamment autour de l’IA). 💻 Ce que tu vas faire : - Concevoir et faire évoluer des pipelines data robustes, scalables et sécurisés - Développer des traitements avancés sur BigQuery (CTE, window functions, optimisation performance & coûts) - Optimiser les requêtes à grande échelle via analyse des plans d’exécution - Concevoir des modèles de données (star / snowflake) pour des usages BI (PowerBI, Looker) - Intégrer des sources de données multiples (API, cloud, bases, fichiers…) - Industrialiser les workflows via CI/CD et Infrastructure as Code (Terraform, Cloud Build) - Contribuer à l’intégration de cas d’usage IA dans les pipelines data - Participer aux choix d’architecture et structurer les bonnes pratiques data 🎯 Stack & environnement : BigQuery / SQL / Python / GCP / Cloud Build / Cloud Workflows / Apigee / Terraform / GitHub / PowerBI / Looker ➕ Bonus : expérience sur des environnements media / digital data (Google Analytics, Salesforce, CRM, social media) 📍 IDF : 2 jours de TT 🏡 📅 Démarrage : ASAP Qu'en penses-tu ? Une belle journée,
CDI

Offre d'emploi
Data Engineer Adtech Big Query

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

45k-50k €
Rennes, Bretagne
Contexte de la mission : Le client a pour mission d'accompagner les agences médias nationales et locales, les annonceurs grands comptes et les acteurs publics au travers de plans média 360° (TV Segmentée, Streaming, display, programmatique, social...) permettant de communiquer de manière ciblée auprès des intentionnistes BtoC et BtoB au travers de différents formats publicitaires. La mission sera encadrée par le responsable datas & adtech, le product manager, et les parties prenantes (accounts managers et commerciaux). Objectifs et livrables : Finalités du poste : • Construire et maintenir les flux de données nécessaires à la Customer Data Platform (CDP). • Mettre la donnée à disposition des Account Managers pour répondre plus vite et mieux aux briefs. • Automatiser les traitements datas (datas propriétaires, datas des plateformes publicitaires) et mettre en place les outils internes en utilisant les capacités de l'IA (nouvelles activités au sein de l'entité). • Intégrer dans notre stack technique les outils publicitaires du marché pour la collecte, le ciblage et l'activation de données et la mise en place de campagnes publicitaires sur différent canaux. Missions principales : • Organiser, structurer, exploiter la donnée dans la CDP. • Maitriser les scripts d'ingestion (Python, SQL BigQuery) et en assurer le bon fonctionnement quotidien. • Intégrer toutes les données internes utiles à l'entreprise en collaborant avec les autres équipes (Développeurs, Data, Produit, IT et Juridique). • Construire les dashboards de l'entité pour piloter la pertinence de notre donnée, comprendre et améliorer la monétisation de nos médias, et le pilotage de l'entité (clients, briefs, campagnes, performances). • Développer les outils internes pour accélérer les opérations (réponse aux briefs, automatisation de mise en place de campagnes) en collaboration étroite en avec les Account Managers. • Intégrer les adtechs (alternatives IDs, dsp Equativ & The Trade Desk, pixels et audiences tracking, autres solutions du marché - metabase, mindmetrics) Technologies : • Développements web et back pour les outils internes • Pilotage activité et pilotage interne (BigQuery, Metabase) • Intégration de solutions marchés(DSP GAM, Equativ, TheTradeDesk, First-ID,...) Référence de l'offre : 1ocsrdgcap
CDI
Freelance

Offre d'emploi
Expert N3 Mobilité & Innovation (Android/iOS) - LILLE (pas de full télétravail)

HELPLINE
Publiée le
Android
Google Workspace
Support informatique

3 ans
40k-45k €
400-490 €
Lille, Hauts-de-France
Vous souhaitez piloter la mobilité d'un leader du retail à l'échelle internationale ? Nous recherchons notre futur(e) Expert(e) N3 Mobilité pour transformer notre parc de terminaux et garantir une expérience utilisateur sans couture sur le terrain (magasins, logistique, sièges). Le Challenge Au cœur d'une équipe Agile, vous équilibrez votre activité entre l'accélération du Build (innovation) et la sécurisation du Run (stabilité). Votre objectif : professionnaliser le produit "Mobilité" et anticiper les besoins futurs. Vos Missions Build & Innovation : Administrer et challenger le tenant Workspace ONE (WS1) , gérer l'écosystème natif ( ABM, Android Enterprise ) et configurer les flottes durcies ( Zebra StageNow ). Support Expertise & Transmission : Assurer le support N3 complexe, rédiger la documentation sur Confluence (KB) et faire monter en compétence les niveaux 1 et 2. Pilotage Agile : Gestion autonome du backlog sur Jira (User Stories, capacité à faire). Votre Profil Expertise UEM : Maîtrise confirmée de Workspace ONE et des écosystèmes mobiles. Expérience Terrain : Gestion de flottes de grande envergure et terminaux durcis (Zebra, Honeywell...). Rigueur & Pédagogie : La documentation est pour vous un prérequis strict. Mindset "Produit" : Vous anticipez et proposez des solutions innovantes.
CDI

Offre d'emploi
Lead Developer Backend - Expertise IA & Agentique - Paris (H/F)

EASY PARTNER
Publiée le
C/C++
Data science
Go (langage)

71k-90k €
Paris, France
Contexte du poste Vous êtes passionné par l'innovation et l'intelligence artificielle ? Rejoignez une entreprise en pleine croissance spécialisée dans le développement de solutions numériques avancées, située en plein cœur de Paris. Notre département R&D, composé d'une équipe pluridisciplinaire de talents, cherche à agrandir ses rangs avec un Lead Developer Backend afin de piloter des projets stratégiques liés à l'IA et aux systèmes agentiques. Ce poste clé est à pourvoir pour renforcer notre expertise technique et soutenir notre croissance face aux défis complexes du numérique, tout en collaborant étroitement avec la direction et les équipes de base de données. Missions Missions principales - Concevoir, architecturer et implémenter notre nouveau système avec une forte composante IA. - Assurer le pilotage technique et l'accompagnement de l'équipe dans la réflexion et l'optimisation technologique. - Travailler en étroite collaboration avec la direction R&D pour aligner les objectifs stratégiques. - Prendre en charge l'intégralité du cycle de vie des projets, de la définition des besoins à leur déploiement. Missions annexes - Participer activement à la gestion des incidents et à l'amélioration continue. - Contribuer à la veille technologique et à l'innovation au sein de l'entreprise.
Freelance

Mission freelance
Coordinateur Data H/F

HAYS France
Publiée le

2 mois
Caen, Normandie
Mission : Mission de 2 mois en Freelance puis préembauche en CDI Lieu : Caen Vos Missions Organisation du reporting groupe Structure et centraliser les indicateurs clés (KPI) pour le pilotage stratégique et opérationnel. Définit et maintenir une architecture de reporting homogène pour l'ensemble du groupe. Évolution des tableaux de bord Conçoit, maintient et fait évoluer les dashboards pour répondre aux besoins métiers. Garantit l'automatisation, la lisibilité et la fiabilité des rapports. Modélisation des données et flux d'alimentation Conçoit et maintient les modèles de données (Datawarehouse, Datalake, Datamarts). Crée et optimise les processus d'intégration (ETL/ELT) pour alimenter les systèmes analytiques. S'assure de la qualité, de l'exhaustivité et de la fraîcheur des données. Relation avec les métiers et la Direction Technique (OT) Assure le lien fonctionnel entre les équipes métiers et la DSI (Direction Technique). Analyse les besoins, formalise les expressions de besoins, coordonne les réponses techniques. Mise en place de procédures de contrôle qualité Définit et met en oeuvre des règles de contrôle de cohérence et de qualité des données. Met en place des alertes, indicateurs de suivi et tableaux de bord de contrôle. Participe à la conformité réglementaire (ex : RGPD, audit interne). Administration de la plateforme BI Gére les environnements de BI (paramétrage, déploiement, supervision). Met en oeuvre une gouvernance des accès et des rôles : Définit les périmètres d'accès aux données (cloisonnement par entité, fonction, niveau hiérarchique). Assure une gestion fine des droits utilisateurs, rôles et permissions. Formation et accompagnement des utilisateurs Forme les utilisateurs clés et les référents métier aux outils BI et aux bonnes pratiques d'usage des données. Élabore des supports pédagogiques (guides, vidéos, documentation). Développe l'acculturation des collaborateurs à la donnée et à l'IA. Veille technologique & innovation Suit les évolutions dans les domaines BI, data, cloud et IA. Identifie les opportunités d'optimisation ou de transformation des processus métier grâce à la donnée
CDI

Offre d'emploi
Ingénieur Data H/F

HAYS France
Publiée le

Tours, Centre-Val de Loire
Les missions sont les suivantes :-Concevoir et structurer des solutions Data (modélisation, collecte, traitement et exploitation des données)-Participer à la mise en place de l'Intelligence Artificielle au sein de l'organisation (IA positionnée en amont d'un CRM permettant une meilleure connaissance du portefeuille clients)-Mettre en œuvre des outils du marché ou des solutions internes adaptés aux besoins métiers-Travailler sur : l'analyse et la connaissance client, la gestion des partenaires (vente et partage de données), l'automatisation des campagnes de mailing-Collaborer étroitement avec les équipes métiers et les développeurs-Être force de proposition sur les usages Data & IA
Offre premium
Freelance
CDI
CDD

Offre d'emploi
Expert DATAIKU

EXteam
Publiée le
Dataiku

3 ans
Levallois-Perret, Île-de-France
Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : • Reprendre et finaliser la Refonte des projets data marketing DMK • Securiser et stabiliser le run • Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) • Construire des modèles prédictifs/scorings simples • Automatiser le production de reportings mensuels pour direction Marketing • Documentation Vous travaillez au quotidien en anglais avec les collaborateurs de toutes les pays et directions du groupe Arval. Réunions de cadrage avec les métiers afin de définir les règles de gestion : Identification d'architecture et modélisation data Construire des flows DATAIKU facilement maintenables (respect des normes de développement Arval) et documentés Scénarisation des flows DATAIKU Recettage des projets, correction de bugs Mise en production Analyses ad hocs Maintenance du run Analyses ad hocs Sécuriser la cohérence des KPIs produits et la qualité des données exploitées Communication auprès des métiers Responsable de la relation Marketing avec l'IT -
CDD

Offre d'emploi
DEVELOPPEUR(SE) BACK .NET - Clean Architecture - Confirmé (4-10 ans) F/H

SMARTPOINT
Publiée le
.NET
.NET CORE
Data cleaning

12 mois
40k-45k €
100 €
Châtillon, Île-de-France
ANALYSE : Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT : Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION : Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE : Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production
Freelance
CDI

Offre d'emploi
Data Modelisation sur Paris

EterniTech
Publiée le
BigQuery
Merise

3 mois
Paris, France
e cherche pour un de mes clients un Data Modelisation Description du besoin : OBJET DE LA PRESTATION : DATA MODELER - PROGRAMME DE TRANSFORMATION DATA B2B NOM DU PROJET : TRANSFORMATION DATA B2B Senior Data Analyst / Data Modeler (B2B) Cadre et environnement (Contexte général du projet) Dans le cadre du programme de transformation de la Data B2B (Agite Data), le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir, en mode agile, le socle technique et les données de référence (RCU, Pivots) qui serviront ensuite aux Squads Métiers pour bâtir leurs cas d'usages Définition de la prestation (Objet & Périmètre de la prestation) Le Prestataire agira en tant que Référent Modélisation & Connaissance de la Donnée. Il fera le lien entre les Experts Métiers et le Lead data engineer agile. 1) Conception du "Core Model" : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) en cible sur BigQuery (Modèles en étoile / Data Vault). 2) Règles de Gestion RCU : Définir et prototyper (en SQL) les règles de rapprochement (Matching/Merging) permettant de lier les données techniques (ex: ND) aux données légales (SIREN/SIRET). 3) Archéologie de la Donnée : Analyser les sources Legacy (Oracle) pour identifier les règles implicites et cartographier les écarts avec la cible. 4) Gouvernance & Dictionnaire : Rédiger les définitions fonctionnelles directement dans le Data Catalog d'AIDA (Métadonnées BigQuery) et le Data Catalog Métier (ODG = Open Data Guide) pour garantir l'autonomie des futures Squads. 5) Support aux Squads : Préparer des "Data Sets" certifiés pour faciliter le travail des Data Scientists et Analystes des Squads Métiers. Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Modélisation Cible Modèles Logiques de Données (MLD) validés par le Tech Lead. Mapping Source-to-Target détaillé. Itératif : 1er Draft RCU mi-Mars 2026 Définition du RCU (Vision 360) Spécification SQL des règles d'unicité client (Clés de réconciliation). Matrice de gestion des cas particuliers (Multi-comptes, Flottes). MVP RCU : Fin Mars 2026 Gouvernance des Données Dictionnaire de données (Business Glossary) intégré dans AIDA et ODG Règles de Qualité (DQ Rules) définies pour chaque objet métier Continu Exploration & Prototypage Requêtes SQL d'analyse d'impact. Datasets de test pour validation métier. A la demande Domaines de compétences et savoir faire de la société prestataire, nécessaires à la bonne réalisation de la prestation : Indispensable : Modélisation de Données Expert : Maîtrise des concepts théoriques (Merise, 3NF) et dimensionnels (Star Schema, Kimball). Capacité à simplifier des modèles complexes. SQL Avancé : Capacité à manipuler la donnée (Requetage complexe, Window Functions) pour valider ses propres modèles (pas de spécifications "papier" uniquement). Analyse Fonctionnelle : Capacité à dialoguer avec le Métier (Marketing, Finance) pour extraire les règles de gestion. Expérience avérée dans un cadre de travail Agile / Scrum. Connaissance su secteur B2B/ TELECOM : Compréhension des notions de Hiérarchie de comptes, Parcellaire, SIRET/SIREN. Connaissance de l’environnement BIGQUERY Savoir-être : Esprit de synthèse. Force de proposition (ne pas attendre que le métier dicte le modèle). Pragmatisme (livrer de la valeur incrémentale).
Freelance
CDI

Offre d'emploi
Consultant Senior Data & Finance – Étude de Faisabilité SI Finance

VISIAN
Publiée le
Architecture
Data management

3 ans
40k-44k €
450-490 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’un programme stratégique de transformation des systèmes d’information Finance, une organisation internationale souhaite étudier l’intégration de données financières issues de multiples entités opérationnelles vers des datamarts Finance Groupe. L’environnement est caractérisé par : une forte hétérogénéité des systèmes (multi-ERP), des niveaux de maturité variables selon les entités, une gouvernance des données décentralisée. La mission s’inscrit dans une phase de cadrage stratégique, exclusivement orientée analyse et aide à la décision (aucune activité de développement ou de build). Missions Analyser les processus Finance (comptabilité fournisseurs, clients, grand livre) au sein de différentes entités Identifier les besoins métiers liés à l’alimentation de datamarts Finance Évaluer la qualité, la disponibilité et la cohérence des données existantes Étudier les architectures SI et data en place (ERP, flux, stockage) Identifier et comparer différents scénarios d’intégration des données (batch, API, cloud) Analyser les contraintes techniques, organisationnelles et réglementaires Évaluer les modèles de gouvernance et les règles de gestion des données Identifier les risques, dépendances et proposer des plans de mitigation Construire des scénarios de faisabilité (coûts, complexité, scalabilité) Produire une recommandation argumentée pour orienter la décision (Go / No Go) Contribuer aux comités de pilotage et aux reportings d’avancement Livrables attendus Analyse des processus Finance (AP / AR / GL) Cartographie des systèmes (ERP et data) Évaluation de la qualité et de la structure des données Scorecards de faisabilité par périmètre Étude des patterns d’intégration Schémas d’architecture cible (niveau macro) Analyse des risques et contraintes Scénarios comparatifs de mise en œuvre Rapport de faisabilité consolidé avec recommandation Supports de pilotage projet Environnement technique ERP : multi-environnements (type SAP, Sage, IFS, Navision) Data : plateformes data groupe / data cloud Intégration : batch, API, flux inter-systèmes, cloud-to-cloud Gouvernance : standards data et cybersécurité groupe
CDI

Offre d'emploi
Alternance Data & Performance Acquisition H/F

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Bois-Colombes, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Engineer

UCASE CONSULTING
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Maintien en condition opérationnelle (MCO)

1 an
40k-50k €
450-550 €
Paris, France
Dans le cadre du renforcement d’une équipe data, nous recherchons pour un de nos clients dans le secteur de la mobilité un Data Engineer pour intervenir sur une mission longue, avec un rôle clé dans le développement et le maintien des pipelines de données. Vous intégrerez un pôle Data Studio & OPS , en charge du développement, de l’exploitation et de la fiabilité des solutions data, dans un environnement orienté production et performance. 🧩 Vos missions Développer et maintenir des pipelines de données (ETL / ELT) Manipuler et transformer des données (SQL / volumétrie importante) Assurer la mise en production et le maintien en conditions opérationnelles (MCO) Gérer le support technique N2 / N3 (incidents, monitoring, résolution) Participer à l’amélioration continue des traitements data Travailler en lien avec les équipes projets et techniques
CDI

Offre d'emploi
Data scientist H/F

█ █ █ █ █ █ █
Publiée le
Python
Scikit-learn
Tensorflow

Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Product Owner Pricing Data & Analytics F/H

█ █ █ █ █ █ █
Publiée le
JIRA
Scrum

Auvers-sur-Oise, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

3176 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous