Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 265 résultats.
Freelance

Mission freelance
Data Engineer Semarchy  xDM / xDI Montpellier

Publiée le
Semarchy

6 mois
330-350 €
Montpellier, Occitanie
Télétravail partiel
Data Engineer Semarchy xDM / xDI Montpellier Stambia Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.
Freelance

Mission freelance
Data Engineer Semarchy  xDM / xDI Montpellier

Publiée le
Semarchy

6 mois
330-350 €
Montpellier, Occitanie
Télétravail partiel
Data Engineer Semarchy xDM / xDI Montpellier Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.
Freelance

Mission freelance
DataOps AWS Engineer -MlOps

Publiée le
Apache Airflow
AWS Cloud
AWS Glue

12 mois
500-580 €
Paris, France
Télétravail partiel
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .
Freelance
CDI

Offre d'emploi
INGENIEUR MACHINE Learning Engineering

Publiée le
MySQL
Python

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Créer les premiers cas d’usage en lien avec la personnalisation de l’expérience utilisateur basés sur de la recommandation utilisateur 2. Déployer ce projet et AB tester en production 3. Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la prestation consistera à : • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Freelance

Mission freelance
Azure Data Engineer (Azure Functions / Kafka / MS Fabric)

Publiée le
Azure
SAP BW

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Télétravail 100%
Nous recherchons un expert en data engineering pour nous accompagner dans un premier temps à l’extraction des données financières depuis SAP vers notre plateforme de données Azure, puis au développement de pipelines de données robustes. Le projet consiste à intégrer SAP BW et SAP BFC à la plateforme Azure. L'objectif est de centraliser efficacement les données financières pour alimenter un modèle d'intelligence artificielle destiné à prédire les KPIs financiers de l’entreprise. Le consultant idéal aura une solide expérience des Azure Functions , Apache Kafka , Microsoft Fabric , ainsi qu’une bonne maîtrise de SAP BW et SAP BFC . Ce projet est essentiel pour améliorer nos capacités de traitement de données financières et garantir des analyses prédictives fiables. 📌 Objectifs & livrables L’objectif principal est d’assurer une intégration fluide des systèmes financiers à notre plateforme Azure. Les livrables attendus incluent : Concevoir et implémenter un pipeline de données entre SAP BW, SAP BFC et Azure Garantir l'intégrité et la sécurité des données tout au long du processus Optimiser les flux de données pour un traitement et une analyse en temps réel Faciliter la consommation des données par des modèles d'IA pour la prédiction des KPIs Fournir la documentation et la formation pour la maintenance et le support
Freelance

Mission freelance
Mission Freelance – Data Engineer AWS (H/F)

Publiée le
AWS Cloud

2 ans
400-550 €
Île-de-France, France
Télétravail partiel
🧠 Vos missions Concevoir, construire et maintenir l’infrastructure AWS dédiée aux traitements Data & IA. Développer des pipelines de données robustes et scalables, orientés médias. Industrialiser les cas d’usage métiers en lien étroit avec les équipes Data Science. Garantir la qualité, la fiabilité et la performance des données et des traitements. Contribuer à la documentation technique et au suivi de l’activité. Collaborer avec les équipes métiers pour recueillir les besoins et proposer des améliorations. 🛠️ Environnement technique Cloud & Infra as Code : AWS (IAM, S3, Lambda, Secret Manager, VPC), Terraform, Ansible, GitOps. Conteneurisation : Docker, Kubernetes, Helm. Langage principal : Python (POO, design patterns, tests). CI/CD : GitFlow, pipelines de déploiement. Bases de données : SQL et Graph. Outils projet : JIRA, méthodes Agile.
Freelance
CDI

Offre d'emploi
Chef de projet Industriel (H/F)

Publiée le
Master Data Management (MDM)
Product Information Management (PIM)
RPA (Robotic Process Automation)

1 an
40k-45k €
400-550 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte du projet : Dans le cadre de l’amélioration de la gestion et de la communication des données produits marketing, l’entreprise met en place une double approche : Une solution court terme pour répondre rapidement aux besoins opérationnels de consolidation de données, traduction et génération de documents produits. Une solution long terme structurée et scalable (PIM) intégrée aux processus métiers. Missions principales : Court terme – Coordination des initiatives d’automatisation opérationnelle : Piloter et coordonner les initiatives d’automatisation (RPA, IA, scripts) pour : Consolider et structurer les données issues de différentes sources internes pour alimenter les outils d’IA générant la documentation marketing. Traduire automatiquement le contenu produit en plusieurs langues via IA. Générer automatiquement des documents (fiches produits, catalogues, etc.) Coordonner les parties prenantes internes (marketing, sales, IT). Garantir la qualité et la cohérence des données et des informations publiées. Long terme – Étude et mise en œuvre de la solution PIM : Poursuivre l’analyse des besoins métiers et des processus existants. Définir le processus cible de gestion des données produits (modélisation des flux, gouvernance, workflows). Réaliser un benchmark des solutions PIM existantes (Seismic, Censhare, InRiver…). Participer au choix de la solution cible en collaboration avec IT et métiers. Structurer et lancer le projet de mise en œuvre : planification, ressources, budget, gouvernance. Préparer le change management et l’adoption par les utilisateurs.
Freelance
CDI

Offre d'emploi
Azure Cloud Administrator & Architect H/F

Publiée le
Azure

3 ans
Île-de-France, France
Le département informatique travaille actuellement avec l'équipe Digital & Data Solution sur des initiatives liées à l'IA, au machine learning et aux données. Nous recherchons un expert Azure Cloud pour : - Administrer le tenant Azure existant du groupe - Contribuer à la mise en œuvre de cas d'utilisation de l'IA et du machine learning - Contribuer au projet Data Platform en participant activement au MVP avec la solution Snowflake - Mettre en place les meilleures pratiques Azure (automatisation, sécurité) avec différentes parties prenantes - Transférer ses compétences à l'équipe existante Vous collaborerez étroitement avec différentes équipes informatiques (cybersécurité, opérations informatiques, développement informatique, informatique métier), ainsi qu'avec l'équipe Digital & Data Solution. » Les équipes informatiques du Groupe comptent plus de 600 collaborateurs répartis entre Paris, Tunis, Francfort et Düsseldorf. Nous recherchons un expert Azure ayant une expérience significative (plus de 5 ans) dans l'administration et la conception de projets informatiques cloud. Connaissances en cloud (administration, support, IaC, automatisation, sécurité cloud) Très bonne expertise des services Azure, Terraform, scripting Administrer, surveiller et mettre en œuvre les services Azure Contribuer à la mise en œuvre de projets liés à l'IA et à la plateforme de données Promouvoir les meilleures pratiques DevSecOps Être une référence technique en matière d'IA et d'apprentissage automatique Travailler en étroite collaboration avec les architectes du groupe, les équipes de sécurité et DEX Solides compétences techniques dans Azure, IaC (terraform), Solide expérience dans les cas d'utilisation de l'IA et du machine learning dans Azure. La connaissance des scripts Azure PowerShell serait appréciée. Maîtrise de l'anglais. Expertise dans le cloud Azure.
Freelance

Mission freelance
Expert MLOps & LLMOps

Publiée le
Amazon S3
Kubernetes
Large Language Model (LLM)

12 mois
600-650 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Expert MLOPS" pour un client dans le secteur de la finance Description 🎯 Contexte de la Mission L'environnement de travail : Le Lab Data Vous rejoindrez le Lab Data d'un acteur majeur dans son secteur, une équipe clé dont le périmètre d'action et l'impact ont considérablement augmenté. Ce Lab est au cœur de la stratégie data et IA de l'entreprise, agissant comme le moteur de l'accessibilité et de l'exploitation avancée des données ( Data Mesh et Data Lake ). L'équipe est responsable de la construction du magasin Workspace pour rendre accessibles les données et les analytics . Les Enjeux L'équipe est en pleine phase d'accélération ( Go-to-Market ) et gère actuellement une forte croissance, avec plus de 60 agents et modèles en production . L'objectif principal est de professionnaliser l'industrialisation des modèles et des agents IA. L'enjeu est critique : améliorer la vitesse et la maturité du suivi de production pour répondre à l'augmentation des utilisateurs, garantir une performance et une fiabilité irréprochables, et maintenir un onboarding rapide des nouvelles initiatives. 🚀 Missions Principales En tant qu' Expert MLOps , vous jouerez un rôle stratégique dans l'industrialisation, l'orchestration et l'opérationnalisation de la plateforme. Industrialisation des Agents et Modèles (MLOps & LLM Ops) : Définir et implémenter le ML Lifecycle Management complet (entraînement, versioning, déploiement continu et monitoring) pour tous les modèles et agents en production. Mettre en œuvre les processus LLM Ops spécifiques à l'industrialisation des Grands Modèles de Langage et des architectures avancées basées sur des agents. Orchestration et Opérationnalisation : Concevoir et maintenir les architectures d'orchestration basées sur Kubernetes . Assurer la connectivité du Data Lab, notamment via les connecteurs Spark et Workspace , et garantir la consommation des analytics par API . Soutenir l'exploitation de la Plateforme Agentique (ex. : Agent Orchestrator, Agent Catalog ) et des composants IA et Data Viz ( Elastic Search, Power BI ). Performance et Observabilité : Mener des actions pour accélérer la performance et l'exécution des flux de production. Mettre en place un système d' Observabilité avancé (critique pour cette mission) pour le suivi et l'amélioration continue de la qualité, de la stabilité et de la performance des modèles déployés. Montée en Compétence : Agir comme Professional Service en apportant votre expertise pour élever le niveau de maturité technique de l'équipe ( step up ) sur les meilleures pratiques MLOps.
Freelance
CDI

Offre d'emploi
MACHINE LEARNING ENGINEER

Publiée le
Machine Learning

3 mois
40k-45k €
360-500 €
Paris, France
Télétravail partiel
a prestation consistera à : • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe Expertises requises pour réaliser la prestation de Machine Learning Engineering : • Au moins 3 ans d’expérience dans un environnement data/machine learning • Expériences dans le déploiement en production de modèles de machine learning • Expériences sur la Google Cloud Platform : Composer/CloudSQL/CloudRun/IAM • Expériences avec des technologies de type Flask ou FastAPI • Expériences intégrant les langages Python et SQL • Solides expériences en data, avec des projets structures de données, code, architecture • Expériences intégrant Terraform et Terragrunt • Expériences intégrant du Machine Learning et des concepts liés à l’IA • Expériences utilisant Gitlab et Gitlab CI/CD • Capacité à vulgariser et à communiquer sur des aspects purement techniques • Expérience en méthodes Agile : de préférence Scrum ou Kanban
Freelance

Mission freelance
MLOPS Expérimenté

Publiée le
AI
AWS Cloud
CI/CD

6 mois
450 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous sommes à la recherche d'un Ingénieur MLOps expérimenté pour une mission stratégique de six mois, débutant le 2 janvier 2026 sur le site de Lyon (avec une flexibilité de deux jours par semaine sur place). Cette opportunité unique s'adresse à un professionnel doté d'une expertise reconnue dans la mise en production et la standardisation des modèles de Machine Learning et de Vision par Ordinateur. Le cœur de cette mission réside dans l' industrialisation complète du cycle de vie des modèles d'IA, depuis la détection de nouvelles opportunités (POC) jusqu'au déploiement sécurisé en production. Le profil recherché sera le moteur de la standardisation des pipelines ML et Data, garantissant ainsi la robustesse et l'évolutivité de la plateforme IA de notre client. Une maîtrise des technologies cloud AWS (notamment Sagemaker, Textract et Comprehend), associée à une solide expérience DevOps ( Terraform, Docker, GitLab CI/CD ), est absolument indispensable. L'expertise en Computer Vision et l'utilisation de librairies Python spécialisées (Pydantic, PymuPDF) sont des atouts majeurs. Prestations attendues : Détection d’opportunités IA/ML & POC Développement de fonctionnalités IA/ML Industrialisation & standardisation MLOps
CDI

Offre d'emploi
Technical Lead – AI Agentic Platform à MARSEILLE

Publiée le
CI/CD
Docker
IA Générative

55k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
En tant que Technical Lead, vous serez en charge de piloter la conception, l’architecture et la mise en œuvre technique d’une plateforme d’agents d’Intelligence Artificielle. Vous accompagnerez les équipes dans le choix des technologies et l’application des bonnes pratiques. Votre rôle Architecture & conception technique Concevoir, construire et faire évoluer l’architecture technique de la plateforme d’agents IA Définir les standards techniques d’API, microservices et systèmes distribués Développement & Management Encadrer les développements autour des modèles génératifs et des architectures RAG Intégrer et orchestrer les frameworks d’agents (LangChain, CrewAI, LangGraph) Run & Performance Superviser la mise en production, la CI/CD et la containerisation (Docker, Kubernetes) Garantir la performance, la résilience et la sécurité de la plateforme (>99.9% uptime) Collaborer avec les équipes Cloud, Data et Sécurité pour le déploiement et la maintenance.
Freelance
CDD

Offre d'emploi
Consultant en Machine Learning H/F

Publiée le
Gitlab
GitLab CI
Google Cloud Platform (GCP)

12 mois
50k-70k €
500-570 €
Île-de-France, France
Télétravail partiel
En interaction avec les membres de l’équipe, la prestation consistera à : • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Freelance

Mission freelance
Developpeur Java Senior (H/F)

Publiée le

12 mois
400-500 €
Paris, France
Télétravail partiel
Notre client, acteur international majeur du e-commerce et des solutions SaaS, renforce actuellement ses équipes techniques dans un contexte de forte croissance et d’innovation. Le département Tech, qui regroupe plus de 350 collaborateurs, est au cœur de la stratégie de développement du groupe. Avec la montée en puissance de l’intelligence artificielle et l’évolution rapide du marché digital, de nouveaux produits et projets internes sont lancés. Pour accompagner ces transformations, notre client recherche plusieurs Développeurs Java expérimentés afin de soutenir les équipes existantes sur les applications cœur métier. Vos missions : Intégré à une squad produit composée d’un Product Manager, d’un Manager Java, de 5 développeurs et d’un testeur applicatif, vous interviendrez sur la conception, le développement et l’évolution d’applications web à fort trafic et haute disponibilité. Vos principales responsabilités : * Concevoir et développer des fonctionnalités backend (et ponctuellement front) sur des applications en microservices. * Participer à la conception technique, aux revues de code et aux choix d’architecture. * Garantir la qualité, la performance et la robustesse du code livré. * Collaborer étroitement avec les équipes design, architecture, infrastructure et data. * Contribuer à la mise en œuvre des bonnes pratiques de développement (tests, CI/CD, revue de code). ### Stack technique * Langage : Java 21 (migration vers Java 25 prévue) * Framework : Spring Boot * Front : React / Redux * Messaging : Kafka * Base de données : PostgreSQL * Recherche : Elasticsearch * Infra : Docker, Kubernetes, AWS, Google Cloud * Méthodologie : Agile / Scrum
Freelance

Mission freelance
Machine Learning Engineering

Publiée le
Flask
Python
SQL

6 mois
400-600 €
Paris, France
Télétravail partiel
Objectifs principaux : Développer les premiers cas d’usage de personnalisation via des algorithmes de recommandation. Déployer en production et tester (A/B testing) les modèles ML. Mettre en place un monitoring des performances et des indicateurs clés. Conception & Maintenance : Construire des pipelines ML scalables (de la collecte des données à l’exposition via API REST). Structurer le stockage des données et garantir leur intégrité/sécurité. Industrialisation & Infrastructure : Déployer des environnements stables et évolutifs (GCP). Automatiser les workflows (CI/CD avec GitLab). Industrialiser les modèles IA en collaboration avec les Data Scientists. Collaboration & Bonnes Pratiques : Travailler avec les Data Engineers et autres équipes techniques pour appliquer les standards. Documenter les processus et faire de la veille technologique active. Participation aux phases projet : Cadrage, planification, réalisation des tâches en méthode Agile (Scrum/Kanban).
Freelance
CDI

Offre d'emploi
Lead Devops / Déploiement à l'échelle

Publiée le
Data Center
Réseaux

1 an
40k-45k €
400-630 €
Île-de-France, France
Télétravail partiel
Descriptif du poste : Lead Devops / Déploiement à l'échelle Dans le cadre du renforcement de ses équipes de Production, un groupe leader dans le secteur financier recherche un profil technico-fonctionnel IT pour intervenir sur un périmètre à double composante : Infrastructure : Réseau, Télécom, Sécurité, Data, Cloud, Serveurs Applicatif / Métier : Banque de détail, Banque d'investissement, Assurance, Fonctions support… Vous intégrerez une équipe dynamique et innovante, au cœur de projets stratégiques pilotés par la data et l'intelligence artificielle, avec une approche résolument agile. Description du poste Vous contribuerez activement à l'adoption par les utilisateurs des nouvelles fonctionnalités du produit et assurerez leur montée en compétence. Vous serez partie prenante dans le suivi du maintien en condition opérationnelle du produit en production. Missions principales Capacité de déploiement : Pilotage des slides Steerco, point de suivi des usages, accompagnement au changement Déployer et piloter l'adoption du produit avec la mise en place des comités de suivi des usages Proposer des ajustements concernant les indicateurs de pilotage du produit et de son déploiement Contribuer à la formation et à la certification des utilisateurs Contribuer à la gestion des incidents Contribuer à la gestion des problèmes (Time to fix / Time to repair - Réparation de la cause qui a généré l'incident) Accompagner le changement, autour du produit Capacité à travailler en équipe Agile Capacité à travailler dans un environnement complexe
265 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous