Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning à Paris

Ce qu’il faut savoir sur Machine Learning

Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.

Votre recherche renvoie 49 résultats.
Freelance
CDI

Offre d'emploi
📩 Data Scientist Confirmé – Computer Vision

Gentis Recruitment SAS
Publiée le
CI/CD
Computer vision
Docker

6 mois
40k-45k €
400-600 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une première version (V0) d’une solution de détection pour des applications dans le secteur naval, notre client, acteur industriel majeur dans le domaine de la défense et des technologies, recherche un Data Scientist Senior spécialisé en Computer Vision . Le projet porte sur l’analyse d’images et de flux vidéo avec des enjeux forts de précision, de robustesse et de mise en production rapide. Missions Participer au cadrage fonctionnel et technique avec les équipes métiers Concevoir et développer des modèles de Computer Vision (détection, reconnaissance, identification) Développer, entraîner et valider des modèles Machine Learning / Deep Learning Assurer le déploiement et le cycle de vie des modèles (MLOps) Contribuer activement à la livraison d’une V0 dans un environnement en sprint court Animer des workshops techniques avec les équipes projet (PO, DevOps, Architectes, Développeurs) Garantir la qualité, la performance et la maintenabilité des solutions développées
CDI
Freelance

Offre d'emploi
Ingénieur de Supervision –ElasticSearch

Genwaves Group
Publiée le
Elasticsearch
Supervision

24 mois
45k-50k €
250-500 €
Paris, France
🎯 Votre rôle : En appui direct à un ingénieur production IT, vous interviendrez sur des projets stratégiques de traitement et de valorisation de la donnée. Vous contribuez à la mise en place de solutions de visualisation, de supervision et de machine learning pour assurer une exploitation intelligente des données. 🔧 Vos missions principales : Créer et maintenir des tableaux de bord dynamiques (Kibana, Power BI, Grafana) Gérer des flux de données (pipelines, supervision bout-en-bout) Manipuler des outils comme ElasticSearch, Logstash et ETL Participer à la mise en œuvre de solutions de machine learning appliquées à l'exploitation de données Suivre les performances applicatives (APM), visualiser les métriques, anticiper les anomalies Alimenter et enrichir les systèmes de monitoring et de supervision
Freelance
CDI

Offre d'emploi
Senior Data Engineer

Craftman data
Publiée le
Agent IA
Apache Kafka
Azure Data Factory

12 mois
Paris, France
🧠 Contexte de la mission La squad Data Connect développe des produits data augmentés par l’IA pour : accélérer la livraison des projets data faciliter l’accès à la donnée legacy alimenter différents consommateurs (Power BI, data hubs, produits digitaux, Cognite, etc.) garantir une donnée fiable, gouvernée et monitorée 🚀 Objectif principal du Senior Data Engineer Construire, industrialiser et optimiser des pipelines de données robustes et scalables , en environnement cloud (principalement Azure + Databricks), avec un fort enjeu : 👉 ingestion, transformation, qualité, exposition et monitoring de la donnée 🔧 Missions clés 1. Architecture & conception data Analyser les besoins métiers et techniques Proposer des solutions data robustes et industrialisables Travailler avec architectes, data scientists et domain managers 2. Data Engineering / Industrialisation Automatiser les pipelines de données sur : Databricks Azure Data Factory (ADF) Cognite Data Fusion Gérer ingestion, stockage, transformation et exposition Mettre en production des flux data fiables et scalables 3. Data Quality & Monitoring Développer des outils de Data Monitoring / Data Connect Assurer : complétude qualité épuration enrichissement des données Mettre en place des mécanismes d’observabilité 4. Amélioration continue & produit Participer aux workshops produit Améliorer les outils internes (monitoring, exposition, data lineage) Standardiser les pipelines et scripts Renforcer la documentation et la traçabilité 🧰 Stack technique attendue Expert : SQL, Python, Kafka Confirmé : Spark, Databricks, Docker, REST APIs, Cognite Data Fusion Avancé : Azure Machine Learning, LLM IA Agentic : niveau confirmé 🎯 Profil recherché Un profil : très solide en data engineering (industrialisation + production) orienté streaming & ingestion (Kafka fort enjeu) à l’aise avec les environnements cloud Azure + Databricks capable de gérer des sujets data quality / observabilité avec une ouverture IA (LLM, agentic AI, ML pipelines) autonome et orienté produit Senior Data Engineer spécialisé dans la conception et l’industrialisation de pipelines data en environnement cloud Azure et Databricks. Expert en ingestion et streaming (Kafka), il/elle construit des architectures robustes orientées production, avec une forte culture de la data quality, du monitoring et de l’observabilité. À l’aise dans des contextes complexes mêlant legacy data, produits data et IA (LLM / ML), il/elle contribue également à la standardisation et à l’amélioration continue des plateformes data.
Alternance

Offre d'alternance
Data scientist - Backend E-commerce (H/F) - - Alternance

█ █ █ █ █ █ █
Publiée le
Apache Spark
CI/CD
Docker

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Développeur IA / AI Engineer - Paris H/F

Webnet
Publiée le
Cloud
Docker
Intelligence artificielle

45k-55k €
Paris, France
Dans ce cadre de projets chez nos clients grands compte, nous recherchons un Développeur IA pour concevoir, intégrer et industrialiser des modèles d’intelligence artificielle. Vous participez au développement des solutions intégrant des technologies d’intelligence artificielle pour automatiser des processus métier et créer de nouveaux produits numériques. Vous interviendrez sur l’ensemble du cycle de vie des solutions IA : conception, développement, intégration et optimisation. Vous aurez pour missions : Concevoir et développer des solutions basées sur l’intelligence artificielle Intégrer des modèles de machine learning et LLM dans des applications Développer des API et services backend pour exposer les fonctionnalités IA Participer à la mise en production et à l’industrialisation des modèles Optimiser les performances des pipelines data et des modèles Collaborer avec les data scientists, product owners et équipes produit Mettre en place des bonnes pratiques de MLOps et monitoring
Freelance

Mission freelance
Data Scientist IA

Tritux France
Publiée le
DevOps
GenAI
Google Cloud Platform (GCP)

1 an
120-490 €
Paris, France
Socle technique – Data Science & IA Maîtrise de Python et SQL/BigQuery ; packaging, gestion des dépendances, clean code Maîtrise des algorithmes de ML : classification, régression, clustering, deep learning Connaissance des frameworks ML : Scikit-learn, TensorFlow/Keras, PyTorch Compétences avancées en GenAI : LLM, RAG, fine-tuning, prompt engineering, évaluation et déploiement de modèles génératifs Connaissance des concepts clés : Generative AI, agents, assistants, hallucinations, biais, limites des modèles Expertise en agents intelligents : conception de workflows multi-agents, frameworks (ADK, Gemini Enterprise…) Maîtrise des méthodes d'évaluation des agents et pipelines RAG (RAGAS, Langfuse, LLM as a judge) Développement back-end & intégration Conception et développement d'API REST/JSON, architecture orientée objet Développement d'applications GenAI : intégration agents/RAG, gestion de prompts et templates, itération Tests automatisés, revue de code, observabilité (logs, métriques, traces), gestion des erreurs Industrialisation & DevOps Maîtrise des pratiques DevOps/MLOps : CI/CD, Docker, Kubernetes, Git Mise en place et maintenance de pipelines (tests, qualité, déploiement) et gestion des environnements (dev/recette/prod) Architectures Cloud (GCP, AWS, Azure) et outils MLOps associés Monitoring et optimisation des performances de solutions IA en production Collaboration & méthodes Capacité à cadrer un besoin, proposer une solution technique et estimer une charge Travail en mode Agile, interaction avec les parties prenantes produit Anglais courant (lecture de documentation, échanges techniques)
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Python / Azure Sénior

VISIAN
Publiée le
Azure Data Factory
Azure DevOps
Python

1 an
Paris, France
Contexte La Direction des Systèmes d’Information recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l’exploitation des données. Missions Mener les projets d’intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d’optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger (Anglais) pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d’optimiser les architectures Contribuer à l’amélioration de la gouvernance sur la protection et la confidentialité des données Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l’entreprise
Freelance

Mission freelance
Business Analyst Compliance Marchés financiers- Paris

Net technologie
Publiée le
Big Data
Business Analysis
Business Analyst

6 mois
500-530 €
Paris, France
Dans le cadre d’un programme réglementaire stratégique, nous recherchons un(e) Business Analyst pour accompagner l’industrialisation d’une plateforme de surveillance des activités Front Office (trading & sales). 🎯 Objectif : développer une solution globale de monitoring couvrant communications, ordres et transactions , avec intégration de technologies avancées ( data, NLP, IA ). 🌍 Environnement international – Agile – délais réglementaires exigeants 🚀 Missions Recueil et formalisation des besoins métiers & use cases Rédaction des spécifications fonctionnelles & techniques Coordination avec les équipes Data, IT et Compliance Participation aux sprints Agile et suivi des livraisons Contribution à la stratégie data (analyse multi-sources, NLP/ML) Organisation et pilotage des tests UAT Animation des échanges avec les parties prenantes
Freelance
CDI

Offre d'emploi
Product Owner IA

DATAMED RESEARCH
Publiée le
Agent IA
Natural Language Processing (NLP)
OCR (Optical Character Recognition)

24 mois
Paris, France
Contexte Intervention au sein d’une équipe Data / IA en forte croissance, avec des enjeux autour de la valorisation des données, de l’industrialisation des cas d’usage IA et de l’alignement avec les besoins métiers. Missions principales Recueillir, analyser et prioriser les besoins métiers liés aux cas d’usage IA Construire et piloter la roadmap produit IA Rédiger les user stories et gérer le backlog produit Collaborer étroitement avec les équipes Data Scientists, Data Engineers et métiers Suivre le développement des modèles IA (ML, NLP, etc.) et leur mise en production Garantir la valeur business des solutions développées Mettre en place des KPIs de suivi de performance des modèles Assurer la communication avec les parties prenantes (métiers, IT, direction)
CDI

Offre d'emploi
Ingénieur Python / IA H/F

INFOGENE
Publiée le

55k-65k €
Paris, France
Le poste Dans le cadre du développement d’une équipe internationale spécialisée dans les technologies d’IA générative, nous recherchons un Ingénieur Python expérimenté pour contribuer à l’industrialisation et à l’optimisation de systèmes basés sur les LLM. Vous travaillerez en collaboration étroite avec des équipes Data et IA basées à Shanghai dans un environnement innovant, technique et orienté performance. Vos missions Collaborer avec les équipes Data Science et ML Engineering Industrialiser et mettre en production des expérimentations IA Transformer des POC en solutions robustes et exploitables Concevoir des architectures scalables, fiables et résilientes Participer au développement d’applications backend et frontend Contribuer à l’amélioration continue des performances des systèmes IA Participer à la maintenance et à l’évolution des plateformes techniques Évoluer dans un contexte international et distribué Environnement technique Python FastAPI / Django Architectures microservices Systèmes distribués APIs backend Frontend découplé IA générative / LLM Prompt engineering RAG (plus)
Freelance
CDD
CDI

Offre d'emploi
Expert Elasticsearch

EDC DIGITAL-IT
Publiée le
Architecture
Elasticsearch

8 mois
40k-45k €
400-550 €
Paris, France
Au sein d'un client grand compte nous recherchons un profil Expert Elasticsearch : Contexte Dans une logique de renforcement de nos systèmes de supervision, nous souhaitons intégrer un expert Elasticsearch à forte sensibilité architecte afin d’accompagner nos équipes sur les volets infrastructure, observabilité et documentation technique. Objectifs de la mission Optimiser et faire évoluer l’architecture Elasticsearch Mettre en place des solutions avancées d’observabilité (APM, RUM, Synthetics, ML) Rédiger la documentation technique pour les équipes projet et infogérants MCO & MCS , traitement des incidents et opération HNO possibles Travaux attendus Administration N3 du cluster Elasticsearch Ajout de logs internes avec un intégrateur Rédaction de documents d’architecture et techniques Relecture/validation de Merge Requests (GitLab) Ajustement des configurations et mises à jour du cluster Prise en charge des appels API REST & documentation associée Création de dashboards complexes Déploiement APM, Synthetics, RUM, alerting, Machine Learning Etude PRA / PCA avec intégration plateforme secondaire Livrables attendus Rapport d’audit technique & schéma d’architecture cible Documentation technique et fiches pratiques Tableaux de bord d’observabilité Cahiers de configuration APM, ML, alerting Journal de validation des MR Guide API REST Recommandations PRA / PCA et support métier Code : playbooks, roles, collections Ansible, configurations au format Yaml
Freelance

Mission freelance
DATA ANALYST SENIOR LOOKER

PROPULSE IT
Publiée le

24 mois
300-600 €
Paris, France
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
CDI

Offre d'emploi
AI Engineer Databricks

KOMEET TECHNOLOGIES
Publiée le
Databricks

45k-60k €
Paris, France
En tant qu’AI Engineer, vous intervenez sur la conception, le développement et l’industrialisation de solutions d’Intelligence Artificielle, allant du Machine Learning classique aux cas d’usage de GenAI. Vous travaillez au cœur des plateformes Data et ML afin de garantir la robustesse, la performance, la scalabilité et la maintenabilité des modèles et services IA mis en production, au service des équipes métiers et produits. Expérience attendue : 3+ ans en ingénierie IA / ML / Data, avec une forte orientation production. Vous correspondez au/à la AI Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique , de rigueur et de pragmatisme Vous êtes autonome, proactif et doté d’un solide sens des responsabilités Vous savez communiquer clairement avec des interlocuteurs techniques et non techniques, et vulgariser des sujets complexes Vous savez prioriser vos tâches , gérer les contraintes (qualité, délais, coûts) et respecter vos engagements Vous disposez d’un solide bagage en software engineering , vous permettant de développer des solutions IA robustes, lisibles, maintenables et testables , principalement en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes à l’aise avec les outils de versioning (Git) et les workflows collaboratifs associés Vous avez déjà travaillé sur des plateformes Data / ML Cloud (ex. Databricks ou équivalent) Vous comprenez les enjeux de préparation des données , de feature engineering et de qualité des datasets pour les usages ML / AI Vous avez une experience dans l’ industrialisation des modèles ML , incluant entraînement, validation, versioning et déploiement Vous êtes sensibilisé aux pratiques MLOps (gestion du cycle de vie des modèles, reproductibilité, monitoring) Vous avez une appétence pour les cas d’usage GenAI (LLM, RAG, embeddings, agents) et savez concevoir et mettre en œuvre de frameworks d’évaluation pour les systèmes GenAI incluant : évaluation de la qualité des réponses (relevance, faithfulness, completeness), validation des chaînes de retrieval et d’embeddings, comparaison de prompts, modèles ou configurations
CDI
Freelance

Offre d'emploi
Archi DevOps/FinOps pour EDF

Signe +
Publiée le

24 mois
55k-60k €
393-600 €
Paris, France
Mission : Data Architecte DEVOPS/FINOPS transverse avec une expertise GCP ++. Votre rôle sera de concevoir et de mettre en œuvre des architectures de données cloud robustes et performantes. Définir les standards architecture et les règles d'urbanisation Data, IA, DevOPs, MLOPS, IT & Cloud. Mettre en place la gouvernance des modèles et encadrer l'usage des LLM Gérer les risques éthiques et réglementaires. Rédiger, maintenir et diffuser les bonnes pratiques Data, OnPremise, Cloud et DevOPS. Définir et intégrer les principes FinOPS dès la conception des architectures. Préconiser les suivis de la performance Data IA et pour superviser les pipelines. Optimiser les coûts GPU & Cloud et aussi mettre en place un plan FinOps IA. Participer à la définition de modèles de refacturation. Expertise Requise: Solide maîtrise de GCP (BigQuery, Composer, Airflow, DataProc, DataFlow). Expérience avec Terraform, Git, Jenkin. Expérience en environnements hybrides (on-premise). Solide expérience en DevOPS, MLOPS (Git, GitLab, Gitlab-CI, GitOps, Helm, ML Pipelines etc.). Expérience significative sur les outils DevOPS, Orchestration, Conteneurisation (Terraform, Ansible, Docker, Kubernetes etc.). Solide maitrise de FinOps, Optimisation, Supervisions (ELK, Grafana, Prometheuse, Google Monitoring etc.) 2-3j/semaine sur site Compétences techniques requises : Google Cloud Platform data architecture MLOps Google Cloud BigQuery DevOps Composer Apache Airflow
Freelance

Mission freelance
Architecte Data DevOps / FinOps (Expertise GCP)

Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD

6 mois
650 €
Paris, France
Contexte de la mission Au sein d'une grande entité du secteur de l'énergie, vous interviendrez en tant qu' Architecte Data transverse avec une double expertise DevOps et FinOps . Votre rôle sera stratégique : concevoir des architectures cloud robustes, définir les standards d'urbanisation (Data, IA, MLOps) et piloter l'optimisation des coûts dans un environnement hybride et multi-cloud, avec un focus majeur sur GCP . Missions principales 1. Architecture & Urbanisation Définir les standards d'architecture et les règles d'urbanisation pour les domaines Data, IA, DevOps et MLOps. Concevoir et mettre en œuvre des architectures de données cloud performantes. Rédiger, maintenir et diffuser les bonnes pratiques (Data, On-Premise, Cloud et DevOps). Assurer la gouvernance des modèles et encadrer l'usage des LLM tout en gérant les risques éthiques et réglementaires. 2. Expertise DevOps & MLOps Industrialiser les pipelines de données et de Machine Learning (ML Pipelines). Superviser l'orchestration et la conteneurisation des services. Garantir la mise en œuvre des principes CI/CD et GitOps dans des environnements complexes. 3. Stratégie FinOps & Performance Intégrer les principes FinOps dès la conception (Architecture by design). Optimiser spécifiquement les coûts liés au Cloud et aux ressources GPU (Plan FinOps dédié à l'IA). Définir des modèles de refacturation interne et préconiser les outils de suivi de performance pour superviser les pipelines. Expertise Technique Requise Cloud : Maîtrise avancée de Google Cloud Platform (BigQuery, Composer, Airflow, DataProc, DataFlow). Infrastructure as Code & CI/CD : Terraform, Ansible, Git, Jenkins, GitLab-CI, GitOps, Helm. Conteneurisation : Docker, Kubernetes. Observabilité : ELK, Grafana, Prometheus, Google Monitoring. Environnement : Expérience significative en environnements hybrides (On-premise / Cloud). Modalités pratiques Lieu : Paris – Présence sur site obligatoire 2 à 3 jours/semaine . Date de démarrage : 01/06/2026. Date de fin : 31/12/2026 (Visibilité long terme). Prix d’achat max : 650 € HT / jour.
CDI
Freelance

Offre d'emploi
Data Ingénieur

Les Filles et les Garçons de la Tech
Publiée le
AWS Cloud
IA
Kubernetes

6 mois
40k-51k €
450-600 €
Paris, France
Le ou la Data Ingénieur·e IA conçoit, met en place et opère les pipelines de données qui alimentent les cas d’usage d’intelligence artificielle (machine learning, LLM, analytics avancée). Le poste vise à garantir la disponibilité, la qualité, la traçabilité et la performance des données de bout en bout, depuis les sources (SI, APIs, fichiers, logs) jusqu’aux environnements d’entraînement et de production. En lien étroit avec les équipes Data Science, Produit, DevOps et Sécurité, la personne contribue à industrialiser les flux et à fiabiliser l’écosystème data. Livrables Pipelines de données documentés et automatisés, avec contrôles de qualité (validation, déduplication, gestion des valeurs manquantes) et mécanismes de reprise sur incident. Jeux de données prêts pour l’IA (datasets d’entraînement/validation, tables de features, embeddings si nécessaire) et interfaces d’accès stables pour les équipes consommatrices. Tableaux de bord de supervision (fraîcheur, volumes, erreurs, coûts), documentation opérationnelle (runbooks) et contribution aux standards (naming, conventions, modèles) de la plateforme.

Les métiers et les missions en freelance pour Machine Learning

Data scientist

Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.

Data analyst

Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.

Développeur·euse IA/Machine Learning

Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.

Ingénieur·e R&D

L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.

49 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous