Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 823 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer – GCP confirmé·e

Publiée le
Google Cloud Platform (GCP)
Python
SQL

3 ans
Rouen, Normandie
Télétravail partiel
Vous aimez relever des défis techniques ambitieux et contribuer à la mise en place d’architectures data performantes et innovantes ? Vous souhaitez évoluer au cœur d’un environnement cloud moderne et collaboratif ? Cette opportunité est faite pour vous ! Nous recherchons un·e Data Engineer – GCP confirmé·e pour accompagner la construction et le déploiement de solutions data pour notre client du secteur de l’assurance. Intégré·e à la DataFabric, vous rejoindrez une équipe agile composée de 5 à 7 Data Engineers, en lien direct avec le Tech Lead. Vous participerez activement au build et au run des traitements livrés en production sur la plateforme Google Cloud Platform (GCP). Vos principales responsabilités : Analyser, concevoir et modéliser les solutions data adaptées aux besoins métiers Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données Rédiger les documents techniques associés (spécifications, cahier de recette, documentation d’exploitation) Réaliser les recettes techniques et assurer la qualité des livrables grâce à des tests de non-régression Participer activement à la maintenance et à l’amélioration continue des traitements data en production Environnement technique : GCP : BigQuery, Cloud Storage, Cloud Composer, Airflow, GKE Langages & outils : SQL, Python CI/CD : maîtrise des outils d’intégration et de déploiement continu Infrastructure as Code : Terraform
Freelance

Mission freelance
Architecte Data (MLOps)

Publiée le
CI/CD
Python
Terraform

6 mois
740 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte/ Mission : La cellule Marché Data Science XXXXXXX recherche un Architecte Data. Dans un contexte Agile, apporter un appui opérationnel et stratégique à la discipline IA/MLOPS de l’UPN pour : Identifier et évaluer des opportunités IA/ML. Réaliser des POC et industrialiser les solutions retenues. Intégrer les développements IA/ML dans les produits numériques. Standardiser les pratiques MLOPS. Vulgariser et acculturer les équipes produit aux enjeux IA. Attendus/ Livrables clés : Rapport d’analyse d’opportunité IA/ML Documentation technico-économique + code POC Pages Confluence sur standards MLOPS Support de présentation / acculturation IA Rapport d’audit des pratiques IA/MLOPS
Freelance

Mission freelance
Ingénierie et Pilotage de Projets de Transformation Data (Assurance)

Publiée le
Data governance

12 mois
400-850 €
Paris, France
Télétravail partiel
Ingénierie et Pilotage de Projets de Transformation Data (Assurance) Nous recherchons des consultants (Ingénieur Data, Analyste Fonctionnel Data ou Directeur de Programme Data) pour le compte d’un de nos clients assurance dans le cadre d’un projet de transformation et de modernisation de son écosystème Data. Contexte Notre client, un acteur majeur du secteur de l' assurance , est engagé dans un programme stratégique visant à moderniser son paysage applicatif analytique et à optimiser son infrastructure Data. Ce programme inclut l'intégration de données au sein de son datalakehouse et la refonte d'applications orientées client. Dans ce cadre, nous recherchons plusieurs profils Experts et Seniors pour garantir le succès de cette transformation Data. Rôles et Responsabilités Selon votre expertise, vous interviendrez sur l'une des missions suivantes : Pilotage de Programme Data : Diriger la modernisation d'applications analytiques ou assurer la gestion de projet Agile/Product Management pour des applications client. Ingénierie Data & Développement : Assurer la conception, la maintenance et l'industrialisation des applications web et applications orientées client, y compris le développement spécifique. Analyse Fonctionnelle Data : Prendre en charge l'analyse fonctionnelle des besoins en intégration de données vers le datalakehouse ou pour la maintenance d'applications web. Compétences Clés & Techniques Une expertise de niveau Expert ou Senior est exigée sur les points suivants : Expertise Métier : Solide connaissance du secteur de l'Assurance (ou Banque/Finance) et des problématiques de données associées. Compétences Data : Maîtrise des concepts de Data Integration, Data Lakehouse, et des outils ETL (Informatica IDQ, Data Stage, etc.). Technologies : Cloud & DevOps : AWS Cloud (EKS, ArgoCD), Azure, GIT. Langages & Frameworks : JAVA (8, 11, 17), Springboot, NodeJS, ANGULAR, API, REST, SOAP. Bases de Données : DB2, Oracle, Mainframe, NDBX. Outils Complémentaires : IBM WAS, SAS, Microstrategy, OneBI, Power BI, Cobol, JCL, PL/SQL (selon le poste visé). Anglais : Capacité à travailler dans un environnement international, la maîtrise de l'anglais technique étant un prérequis. Détails de la Mission Localisation : Paris (Île-de-France). Date de Démarrage : ASAP. Durée : 12 mois. Taux Journalier Cible (TJM) : Les TJM cibles varient en fonction du rôle et de l'expertise (e.g., Program Director <850€, Data Engineer <950€, Functional Analyst <450€, etc.).
Freelance

Mission freelance
Data engineer Python - Pyspark - Microsoft Fabric - Azure F/H

Publiée le
Azure
Microsoft Fabric
PySpark

12 mois
500-600 €
Paris, France
Notre client dans le secteur Énergie recherche un 2 x Data Engineer Python/PySpark/Microsoft Fabric/ Azure F/H Descriptif de la mission: Objectifs et livrables Nous recherchons 2 prestations de Data Engineer avec des compétences sur Python/PySpark/Microsoft Fabric sous un environnement Azure Cloud. Le prestataire Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir l'architecture de données Développer les pipelines de données Mettre en production ces pipelines de données Assurer la maintenance et l'évolution de l'architecture Compétences requises Maîtrise des technologies suivantes : Python 4/4 PySpark 4/4 Microsoft Fabric 3/4 - Expérience et/ou certification "Microsoft Certified: Fabric Data Engineer Associate" demandées Azure Cloud 3/4 Anglais 3/4 Lieu : Paris Début de mission : Début/mi janvier 2026 Un codingame sera envoyé aux candidats sélectionnés, a compléter dans les 72h après réception Soutenances techniques prévues dans la foulée Démarrage de mission le début- mi janvier 2026 Compétences / Qualités indispensables: Python 4/4,PySpark 4/4,Microsoft Fabric 3/4,Azure Cloud 3/4,Anglais 3/4 Compétences / Qualités qui seraient un +: Expérience et/ou certification "Microsoft Certified: Fabric Data Engineer Associate" demandées
CDI
Freelance

Offre d'emploi
Data ENG GCP CAEN

Publiée le
Git
Google Cloud Platform (GCP)
Jenkins

12 mois
40k-45k €
400-550 €
Caen, Normandie
Télétravail partiel
Dans le cadre du développement de nos activités Data & Cloud auprès d’un grand compte , nous recherchons un Data Engineer expérimenté sur l’écosystème GCP pour rejoindre une équipe projet dynamique basée à Caen( de préférence un profil habitant Caen et ses alentours (3jours sur site /2jours TT .) Vous interviendrez au cœur d’un environnement technologique innovant, sur la construction, l’industrialisation et l’optimisation des pipelines de données dans un contexte Cloud en pleine transformation.
Freelance
CDI

Offre d'emploi
Consultant(e) AMOA Recette Décisionnel

Publiée le
AMOA
Big Data
Business Intelligence

6 mois
40k-50k €
400-450 €
Paris, France
Télétravail partiel
Contexte du projet : Dans le cadre du maintien en conditions opérationnelles et de l’évolution d’applications décisionnelles stratégiques , nous recherchons pour notre client bancaire, un Consultant expert en Recette & AMOA Décisionnel (H/F). Vous accompagnez les équipes métiers et techniques dans les activités de recette , de conception fonctionnelle et de support à la production applicative , au sein d’un environnement data et BI à fort enjeu. Le projet s’inscrit dans une démarche de transformation et d’industrialisation des processus décisionnels, en lien avec les équipes MOA, MOE, Data Platform et Métiers . Activité de Recette : Élaborer et rédiger le plan de tests (cas de tests, scénarios, jeux de données) Exécuter les différents types de tests : recette fonctionnelle, d’intégration et de non-régression Analyser les résultats : conformité, détection et qualification des anomalies Déclarer et suivre les anomalies dans les outils Banque de France Produire les rapports de tests exécutés et bilans de recette Activité de Conception fonctionnelle : Collecter et analyser le besoin métier et rédiger les cas d’usage Réaliser les modélisations fonctionnelles (diagrammes d’activités, de séquence, architecture fonctionnelle) Rédiger les spécifications fonctionnelles générales et détaillées , ainsi que les règles de gestion et exigences non fonctionnelles Consigner les livrables dans JIRA / Confluence Activité de Support à la Production : Analyser les incidents de production (fonctionnels et métiers) Assurer le suivi et la vérification des correctifs Contribuer au pilotage et à la communication autour des incidents
Freelance
CDI

Offre d'emploi
Data Engineer AWS / Spark / Scala /Python

Publiée le
Apache Spark
PySpark
Scala

1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Freelance

Mission freelance
Data Scientist Junior (h/f)

Publiée le

1 mois
400-450 €
95000, Cergy, Île-de-France
Télétravail partiel
Introduction & Résumé: Le rôle de Data Scientist Junior est essentiel pour analyser la performance des outils de prévision au sein du département de Recherche Opérationnelle, contribuant ainsi à l'optimisation des revenus de l'entreprise. Le candidat idéal possède une connaissance approfondie de la modélisation mathématique et statistique, ainsi que des compétences en Machine Learning et en Python. Principales Responsabilités: Le Data Scientist Junior aura pour mission de: Analyser la performance d’un moteur de prédiction lié à l’overbooking. Contribuer à d'autres moteurs de prédiction et d'optimisation dans le projet FIT (Freight Intelligence Techniques). Exigences Clés: Connaissance approfondie de la modélisation mathématique et statistique. Compétences en Machine Learning. Maîtrise des bonnes pratiques Python. Expérience avec les outils : Spark, Python, Git, Bash, SQL. Compréhension des environnements Unix/Linux. Bon niveau d’Anglais écrit et oral. Expérience avec GCP (Google Cloud Platform). Doctorat en Mathématiques ou en Physique. (est un plus). Autres détails: Ce poste est basé à Paris et Amsterdam, au sein du département de Recherche Opérationnelle.
CDI

Offre d'emploi
Data Architect

Publiée le
AWS Cloud
Azure
BI

65k-80k €
Paris, France
Télétravail partiel
Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps
Freelance
CDI

Offre d'emploi
Architecte Big Data GCP & Cloudera (H/F)

Publiée le
Cloudera
Google Cloud Platform (GCP)

1 an
55k-70k €
550-660 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Architecte Big Data confirmé maîtrisant les environnements GCP (Google Cloud Platform) et Cloudera , capable d’allier vision stratégique et excellence technique. En tant qu’Architecte Big Data, vous interviendrez sur des projets de transformation data à grande échelle : Concevoir et faire évoluer des architectures Big Data hybrides (Cloud & on-premise). Définir la stratégie de données et les bonnes pratiques de gouvernance, sécurité et performance. Encadrer les équipes techniques (Data Engineers, DevOps, Data Scientists). Piloter les choix technologiques sur les écosystèmes GCP (BigQuery, Dataflow, Pub/Sub, Composer, Dataproc) et Cloudera (CDP, HDFS, Hive, Spark, Kafka) . Garantir la scalabilité, la résilience et l’optimisation des coûts des plateformes data. Participer aux revues d’architecture et à la veille technologique sur les solutions Cloud et Open Source.
Freelance

Mission freelance
[TPR] Data Scientist / Data Engineer - EXPERT Minimum 10 XP - 941

Publiée le

10 mois
580-635 €
Paris, France
Télétravail partiel
Contexte et objectifs de la mission : Le client recherche un Data Scientist / Data Engineer confirmé disposant d’une expérience éprouvée en Data Science, en Large Language Models (LLMs) et dans l’utilisation avancée de LangChain et LangGraph. Le candidat participera à la conception, l’optimisation et l’industrialisation de solutions d’intelligence artificielle sur une stack Azure Fabric, Docker et App Container Services, incluant des modèles multimodaux et de Computer vision. Missions : • Concevoir, entraîner et déployer des modèles prédictifs et explicatifs (Machine Learning, Deep Learning). • Développer et maintenir des pipelines de données performants sur Azure Fabric. • Conteneuriser et orchestrer les modèles via Docker et App Container Services. • Implémenter et automatiser des workflows complexes via n8n. • Intégrer et exploiter des LLMs (fine-tuning, RAG, GraphRAG) dans des environnements de production. • Développer des solutions avancées à l’aide de LangChain et LangGraph pour la création d’agents intelligents et d’applications IA. • Mettre en œuvre des modèles multimodaux (texte, image, audio, vidéo) et de computer vision. • Concevoir des interfaces de visualisation et d’interaction via Streamlit. • Exploiter des LLMs Azure OpenAI et des modèles open source (Mistral, Llama, etc.) via Hugging Face. • Garantir la qualité, la robustesse et la documentation du code et des modèles. Compétences essentielles et expérience • Automatisation & Orchestration : n8n • LLMs & IA Générative : fine-tuning, RAG, GraphRAG, LangChain, LangGraph, modèles multimodaux, Azure OpenAI, Hugging Face, LLMs open source • Machine Learning / Deep Learning : Régression linéaire et non linéaire, Random Forest, XGBoost, Gradient Boosting, CNN, RNN, Transformers, Computer Vision • Cloud & Conteneurisation : Azure Fabric, Docker, App Container Services • Langages : Python, SQL • Frameworks & Outils : Streamlit, FastAPI, scikit-learn, PyTorch, TensorFlow Profil recherché • Bac+5 (Master / Ingénieur) en Data Science • Minimum 5 ans d’expérience en Data Science et Data Engineering. • Expérience éprouvée dans la mise en production de LLMs et l’usage de LangChain / LangGraph. • Bonne maîtrise des LLMs open source et Azure OpenAI via Hugging Face. • Solides compétences en modélisation prédictive, automatisation et industrialisation de modèles IA. • Esprit analytique, rigueur et autonomie.
Freelance

Mission freelance
Chef de Projet Delivery IA / Data – Agence Digitale

Publiée le
Data science
Preuve de concept (POC)

3 mois
440-600 €
Paris, France
Télétravail partiel
🔹 Contexte : Nous recherchons un Chef de Projet Delivery spécialisé en IA/Data pour accompagner une agence digitale dans le cadrage, le pilotage et la mise en production de projets innovants autour de la data et de l’intelligence artificielle. 🔹 Compétences obligatoires : Ancien Data Scientist (solide compréhension technique) Maîtrise des modèles de données Expérience en POC & prototypes Animation d’ateliers et cadrage fonctionnel Pilotage de delivery (du design à la mise en production) 🔹 Profil recherché : +7 ans d’expérience en Data/IA dont plusieurs en gestion de projet Capacité à traduire les besoins métier en solutions data concrètes Aisance en communication, animation et coordination d’équipes pluridisciplinaires 🔹 Conditions de mission : Lieu : Paris Nord (2 jours de télétravail/semaine) Démarrage : ASAP Durée : longue mission (renouvelable)
Freelance

Mission freelance
Data Engineer AI Integration

Publiée le
IA Générative
Python
Pytorch

10 mois
460-590 €
Île-de-France, France
Télétravail partiel
Le Data Engineer aura pour mission principale d’interagir avec les parties prenantes pour capturer les besoins en données, extraire les data dumps, configurer des Vector Databases (VDBs) et développer/configurer une compétence RAG (Retrieval-Augmented Generation) afin d’améliorer la performance des solutions d’IA générative. Il sera en charge de tester les data pipelines pour garantir des processus efficaces en lien avec les besoins métiers et IA. Ses principales responsabilités incluent : Être le premier point de contact pour les utilisateurs internes concernant les besoins en données des applications d’IA générative Collaborer étroitement avec les Product Owners, développeurs et ingénieurs IA pour recueillir et documenter les besoins Capturer et documenter les besoins et lacunes de données et proposer des stratégies correctives Valider la qualité des données extraites (complétude, exactitude, pertinence) Configurer et optimiser l’utilisation de bases de données vectorielles pour l’accès rapide aux données Tester et ajuster les compétences RAG pour garantir la pertinence contextuelle des informations générées Effectuer des tests complets sur les pipelines de données, participer à l’évaluation de la performance des modèles IA
Freelance

Mission freelance
[SCH] Expert Data SQL / SSIS – Support & Migration (Lyon) - 1044

Publiée le

10 mois
350-450 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet de migration et d’industrialisation des procédures Data, la DSI recherche un expert SQL / SSIS pour intervenir en support des équipes techniques et garantir la qualité, la performance et la conformité des infrastructures livrées. L’environnement technique est orienté Microsoft Data Platform (SQL Server, SSIS) avec une composante Kubernetes pour le déploiement et la supervision des traitements. Missions principales : -Assurer le support Data sur les environnements MS SQL et SSIS. -Recetter les infrastructures livrées : contrôle des droits, circuits de livraison, performance et intégrité des traitements. -Collaborer avec les équipes Infrastructure et Métier pour identifier les besoins et garantir la cohérence des flux. -Participer à la migration des procédures dans un cadre industrialisé (“mode usine”). -Produire la documentation technique et fonctionnelle à destination des équipes de développement. -Contribuer à la qualité, la performance et la sécurité des environnements Data. Objectifs & livrables attendus : -Environnements SQL/SSIS validés et optimisés. -Documentation technique claire et complète pour les développeurs. -Plan de migration et de transformation industrialisé. -Reporting d’avancement et analyse des performances. Profil recherché : - >8 ans d’expérience en environnement Data Microsoft (SQL, SSIS). -Expertise en projets de migration et en industrialisation de procédures. -Solide maîtrise du développement et des tests SQL / SSIS. -Bonne compréhension des environnements Kubernetes (déploiement / supervision). -Connaissance Teradata appréciée. -Excellente aisance rédactionnelle et rigueur documentaire.
Freelance

Mission freelance
Data Analytics Stream Leader Reporting SAP ECC S/4HANA

Publiée le
SAP

1 an
100-550 €
Île-de-France, France
Description de la mission Dans le cadre d’un projet de conversion SAP, nous recherchons un consultant pour assurer le rôle de Data Analytics Stream Leader Reporting. Rôle recherché : Le volet reporting n’avait pas été cadré initialement. Une ressource a pris le rôle de Stream Leader sur la phase de cadrage Data Analytics : Identification et rationalisation de 400 rapports spécifiques (ABAP encapsulé dans transaction Z) et 500 queries SQ01 ou extractions SE16n / infoset / jointures de tables. Définition pour chacun de la stratégie de migration : remédiation dans S/4HANA, transfert vers la dataplatform AWS ou rationalisation (suppression des doublons et non utilisés). Compétences Demandées Connaissance du traitement de la donnée et de son utilisation, de la collecte et de la modélisation Connaissance de SAP ECC ou S/4HANA Capacité d’analyse de l’existant et de stratégie data Connaissance des outils Pack Office Anglais courant (écrit et oral) : langue du projet Une connaissance du langage SQL serait un plus
CDI

Offre d'emploi
Chef de Programme Data

Publiée le
Méthode Agile

40k-58k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un Chef de Programme Data pour piloter deux programmes stratégiques au sein de la tribe IT Data : Programme de transformation des solutions data analytics (stream technologies) – 90 % du temps En support du Stream Leader Technologie, vous cadrez les besoins autour des plateformes data , les transformez en exigences produit , budgétez, planifiez et préparez l’exécution du programme , en assurant la coordination entre les squads plateformes et les Product Owners . Programme de définition du plan stratégique data 2027-2030 – 10 % du temps Vous contribuez à la définition et au suivi des orientations stratégiques data à moyen terme, en lien avec les priorités opérationnelles et technologiques. Dans un cadre Agile , vous travaillez transversalement avec les Product Owners, les squads et les centres d’expertise pour structurer, prioriser et animer le backlog de ces deux programmes, en garantissant leur cohérence et leur succès opérationnel.
1823 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous