Trouvez votre prochaine offre d’emploi ou de mission freelance Python

Ce qu’il faut savoir sur Python

Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.

Votre recherche renvoie 764 résultats.
Freelance
CDD
CDI

Offre d'emploi
INGENIEUR DE DEVELOPPEMENT INFORMATIQUE INDUSTRIELLE

KEONI CONSULTING
Publiée le
Java
Linux
Python

18 mois
20k-60k €
400 €
Saint-Aubin, Île-de-France
MISSIONS Le candidat contribue à la définition des spécifications générales et réalise l’analyse technique et l’étude détaillée du projet applicatif. Il doit réaliser les modules (objets et composants logiciels), adapter et paramétrer les progiciels applicatifs, réaliser le prototypage, élaborer les jeux d’essais pour les tests unitaires d’intégration et effectuer les tests unitaires et, le cas échéant, identifier et traiter les dysfonctionnements. Activités principales : • Savoir rédiger des spécifications fonctionnelles • Savoir définir et décrire une architecture logicielle • Développer de nouvelles fonctionnalités • Corriger des anomalies • Réaliser des tests fonctionnels avec les équipes qui maintiennent les équipements liés • Rédiger des cahiers de recette et des scripts de tests • Rédiger la documentation technique
Freelance
CDI

Offre d'emploi
Data Analyst - Data Scientist

VISIAN
Publiée le
IA
Machine Learning
Natural Language Processing (NLP)

1 an
40k-45k €
400-670 €
Île-de-France, France
🎯 Mission principale Au sein d’une organisation spécialisée dans la data et les solutions de paiement, vous contribuez à la mise en place de projets décisionnels et Big Data en collaboration avec les équipes métiers et IT. 🧩 Responsabilités principales Contribuer à des projets décisionnels et Big Data. Participer à l’animation d’ateliers et de groupes de travail avec les utilisateurs et équipes techniques. Recueillir et analyser les besoins métiers. Concevoir et développer des reportings décisionnels : définition d’indicateurs statistiques, qualité et financiers Réaliser des analyses exploratoires de données. Rédiger la documentation projet : spécifications fonctionnelles et techniques cahiers de tests et de recette Participer aux phases de validation et de recette. Former et accompagner les utilisateurs finaux.
CDI

Offre d'emploi
Data Engineer | Databricks | AWS

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Freelance
CDI

Offre d'emploi
Expert IT Summit (Finance de marché)

Amontech
Publiée le
C#
C/C++
Java

1 an
45k-55k €
450-550 €
Île-de-France, France
🎯 Contexte Nous recherchons un Expert IT Summit pour intervenir dans un environnement Finance de marchés. Vous intégrerez le pôle Booking / Valuation d’une équipe Summit Front Office, avec un rôle clé de support IT niveau 3. L’objectif principal est de répondre aux besoins métier liés à l’intégration et à l’évolution de Summit dans l’écosystème client. 🛠 Compétences recherchéesProgiciel & Environnement Summit 6.2 Grid computing (Datasynapse) Oracle Linux MQ Series / JMS Active MQ Langages C / C++ C# Python Java SQL ksh 📌 Périmètre fonctionnel Front Office / Middle Office Produits taux, dérivés de taux, crédit Booking Lifecycle des trades P&L Market Data STP
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
JIRA
Linux
Python

24 mois
330-400 €
Lyon, Auvergne-Rhône-Alpes
Organisation Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans la gestion d'une plateforme Hadoop. Objectif de la mission Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs. Description de la mission Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de : Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d’éventuels alternants ou stagiaires. Mettre en place des processus d'extraction à partir des données. Assurer le support de niveau 2. Faire respecter les consignes d’utilisation auprès des utilisateurs. Garantir le respect des délais de livraison dans un environnement exigeant. Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme. Il veillera également à respecter l’utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données. Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d’intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
CDI

Offre d'emploi
2. Expert Sauvegardes / VEEAM Senior

ON-X
Publiée le
Ansible
API
Plan de reprise d'activité (PRA)

45k-65k €
Lyon, Auvergne-Rhône-Alpes
Contexte : Mission auprès de la Direction DIGIT de notre client grand compte pour renforcer l’expertise autour des solutions de sauvegarde VEEAM dans des environnements datacenters et sites de production nucléaire. L’expert sera responsable de la conception, du déploiement, des migrations, de la supervision et de la maintenance prédictive de la plateforme sauvegarde, dans un cadre exigeant avec des livrables de niveau États-majors. Environnement technique / compétences clés : Veeam Backup & Replication, Veeam One Architecture et qualification d’infrastructures de sauvegarde PRA / résilience, tests, plans de montée de version Automatisation (Ansible, Python, API) Rédaction de documents techniques complets et structurés
CDI

Offre d'emploi
Ingénieur stockage H/F

DSI group
Publiée le
Ansible
Exadata
Python

44k-50k €
Bezons, Île-de-France
Nous recherchons un Ingénieur stockage H/F pour l'un de nos clients basé à Bezons en Ile de France. Missions principales: Gestion du stockage Administration des baies HITACHI (HUSVM, G5500, G370), incluant HCP Administration des baies HP EVA Suivi des recommandations éditeurs et mise en œuvre des préconisations Gestion des environnements systèmes Administration, maintenance et optimisation des serveurs Solaris Administration et maintien des systèmes Linux (principalement RedHat RHEL ) MCO et performance Garantir la disponibilité, la performance et la capacité des infrastructures de stockage Métrologie, optimisation et capacity planning Analyse des causes d’indisponibilité et des incidents récurrents Définition et mise en œuvre de plans d’actions correctifs et préventifs Gestion des incidents et changements Diagnostic, prise en charge et résolution des incidents techniques Gestion des changements mineurs et moyens Escalade vers les centres de compétences si nécessaire Automatisation & industrialisation Conception et automatisation de tâches via Ansible et AWX (contexte DevOps) Développement de scripts Python pour : Automatiser des tâches spécifiques Intégrer des outils tiers Contribution à l’industrialisation et à la standardisation des processus d’automatisation Infrastructures virtualisées Interventions sur des environnements : VMware ESX Hyper-V OPCA Exadata Projets, documentation et support Support technique aux équipes MCO applicatives et projets Réalisation d’études techniques et propositions d’évolution Intégration technique et mises en production (patchs, évolutions) Mise à jour et conformité de la documentation et des procédures Production de tableaux de bord et reporting (suivi des indicateurs)
Freelance

Mission freelance
expert Linux intégration

QUALIS ESN
Publiée le
Bash
Linux
Python

6 mois
400-550 €
Paris, France
Dans le cadre de l’automatisation de la procuration de certificats numériques mon client recherche un expert confirmé dans les métiers de l’intégration et de l’architecture des SI, opérationnel rapidement. Profil recherché - Expert confirmé en intégration en environnements Linux - Maîtrise des problématiques de certificats numériques et de leur automatisation - Bonne connaissance des environnements DNS, LDAP et LDAPS, SSH - Connaissance du protocoles ACME V2, et éventuellement des protocoles SCEP et EST - Bonne maîtrise de l’automatisation via scripting (Bash, python, etc.) - Très bonne maîtrise des problématiques des environnements sécurisés (DNS, Firewalls, Wafs, clefs asymétriques, LDAPS) - Maitrise des contextes API modernes (JWT, GraphQL, …) - Solide expertise en sécurité des SI (Connaissance des normes de sécurité ISO 27001, ANSSI, sécurisation des sys-tèmes Linux)) - Autonome, rigoureux, capable de documenter et de transmettre les bonnes pratiques. Objectifs de la mission - Intégration/évolution d’un outil d’automatisation de la procuration des certificats - Intégration de la supervision et de la gestion des logs - Implémentation d'une infrastructure de procuration en haute disponibilité - MOE Évolutions puis passage en production - Accompagnement des équipes techniques à l’utilisation et à l’administration de la solution - Analyse des besoins de sécurité, rédaction des plans d’implémentation, et recommandations adaptées - Accompagnement des démarches d’homologation - Réalisation d’audits de sécurité, de conformité réglementaire et de remédiations - Automatisation des tâches via scripting sur des API (REST, …) - Gestion des incidents et réponse aux incidents. Livrables attendus - Documentation complète de l’architecture implémentée - Scripts Bash, Python, . mis en oeuvre dans le cadre de la gestion automatisée avec leur documentation - Procédures d’exploitation et d’administration des plateformes de procuration - Formation des administrateurs, exploitants et supports associés - Plan de MCO/MCS documenté avec préconisations et axes d’amélioration Environnement technique - Systèmes : Linux (Debian, Ubuntu, RHEL), Windows Server, Active Directory - Virtualisation : VMWare vCenter, ESXi (version 8) - Supervision : Zabbix (serveur, proxy, agents) - Logs & observabilité : ELK (OpenSearch, Logstash, Kibana)-Syslog - Sécurité : Normes ANSSI - LPM - Divers : Git, dépôt APT local, scripting Bash/Python BESOIN DE REALISATION EN HORAIRE NON OUVRE OBSERVATIONS COMPLEMENTAIRES - L Lie -
CDI
Freelance

Offre d'emploi
Analyste Technico‑Fonctionnel GIS & Asset Management

EXOCETH
Publiée le
Business Process Model and Notation (BPMN)
JIRA
JSON

10 mois
Bruxelles, Bruxelles-Capitale, Belgique
Dans le cadre d’un renforcement d’équipe, nous recherchons un Analyste Technico‑Fonctionnel spécialisé en GIS et Asset Management. Le consultant interviendra sur l’analyse des besoins métiers, la rédaction des spécifications fonctionnelles, la définition de solutions en cohérence avec l’architecture existante et l’accompagnement des équipes techniques. Il participera au développement et à l’évolution d’un environnement GIS complet incluant des fonctionnalités de simulation de charge électrique. La mission comprend également la préparation et l’exécution des tests, le suivi des anomalies, ainsi que l’accompagnement des utilisateurs dans la prise en main des outils. Le rôle demande une solide expertise GIS, une compréhension des environnements industriels et une capacité à dialoguer efficacement avec les parties prenantes métiers et techniques.
Freelance
CDI

Offre d'emploi
Expert.e Observabilité

Atlanse
Publiée le
BPM (Business Process Management)
CI/CD
Openshift

3 ans
50k-60k €
400-500 €
Noisiel, Île-de-France
En tant qu’expert.e Observabilité, vous intervenez pour structurer, faire évoluer et refondre les dispositifs de supervision et d’observabilité du SI. Votre rôle Gouvernance et pilotage de l’observabilité · Définir et porter la vision cible de l’observabilité (metrics, logs, traces, alerting, corrélation) · Concevoir et faire évoluer les standards de supervision et d’observabilité (KPIs, SLO, alerting, dashboards) · Garantir l’alignement entre enjeux techniques, applicatifs et métiers, avec une approche bout en bout du SI · Structurer les pratiques dans une logique SRE / DevOps / industrialisation Refonte de la supervision et transformation des outils · Contribuer au projet de refonte de la supervision basé sur Zabbix, Grafana, Prometheus et OpenShift · Définir les architectures de collecte, de stockage et de visualisation de la télémétrie · Assurer la cohabitation puis la convergence entre les dispositifs existants et la cible Exploitation et support niveau 3 · Administrer, configurer et optimiser les plateformes d’observabilité · Assurer un support expert N3, notamment sur les incidents complexes · Analyser les causes racines et contribuer à la réduction du bruit et des alertes non pertinentes Automatisation, industrialisation et collaboration · Développer des scripts et mécanismes d’automatisation (déploiement, collecte, alerting, dashboards) · Intégrer l’observabilité dans les chaînes CI/CD et les environnements OpenShift · Rédiger la documentation associée
Freelance

Mission freelance
Automaticien RPA & Tests

Tenth Revolution Group
Publiée le
Appium
Git
Jenkins

1 an
480-530 €
Paris, France
Contexte de la mission Nous recherchons un(e) Automaticien(ne) RPA & Tests confirmé(e) pour renforcer l'équipe Qualité Produit / QA centrale d’un de nos clients grands compte. Il s'agit d'une mission à fort impact consistant à concevoir, maintenir et opérer des robots RPA ainsi que des tests automatisés (Web / Mobile / API) tout en assurant le RUN opérationnel. Vos Missions Cadrage & Conception : Participation et animation des réunions de prise de connaissance, chiffrages et ateliers de conception. Développement RPA : Conception, développement (Robot Framework + Python) et mise en service des robots, accompagnés de la documentation technique associée. RUN & Maintenance : Suivi quotidien de la production (gestion des erreurs/incidents, corrections, petites évolutions) et reporting. Automatisation de Tests : Conception et maintenance des Tests de Non-Régression (TNR) sur les périmètres Web, Mobile et API. Réalisation de Proof of Concept (PoC) selon les besoins. Stack Technique & Outillage RPA & Tests : Robot Framework ( Expertise requise ), Python, Selenium, Appium. API : Postman, SoapUI. CI/CD & Référentiels : Jenkins, Git, Xray (pour la traçabilité). Observabilité & Data : Datadog (analyses et monitoring), SQL (requêtage).
Freelance

Mission freelance
SENIOR DATA AND AI ENGINEER

CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake

1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission 􋰄 Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). 􋰄 Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. 􋰄 Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. 􋰄 Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). 􋰄 Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. 􋰄 Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
Freelance
CDI

Offre d'emploi
Chef de Projet AMOA SENIOR

Codezys
Publiée le
Git
Powerpoint
Python

6 mois
40k-50 160 €
450-520 €
Lyon, Auvergne-Rhône-Alpes
Expérience : 5 ans minimum TJM vente max : 550 € Localisation : Lyon Deadline réponse : 03/02/2026 Durée : 6 mois minimum Contexte : Au sein d'une équipe dédiée à la gestion des systèmes d'information d'une grande entreprise. L'équipe est responsable de l'ensemble des chaînes communicantes, notamment : CCMA : chaîne communicante pour le marché de masse (exemple : équipements connectés) CCMA : chaîne communicante pour le marché d’affaires (exemple : équipements pour les industriels) IOT : ensemble de capteurs communicants fournissant des informations clés sur le réseau de distribution (exemple : capteur de niveau des réservoirs dans des équipements hospitaliers) I3C : postes sources Le système d'information permet de superviser et de monitorer la chaîne communicante via quatre fonctionnalités principales : Monitoring de la chaîne communicante Distribution à distance des logiciels et paramètres Gestion des dysfonctionnements du parc Gestion du référentiel Une entité de l'entreprise spécialisée dans la gestion des actifs et la maintenance étudie et développe des produits data innovants sur des sujets tels que la maintenance prédictive, la mobilité électrique, et la gestion des charges sur le réseau. La prestation aura une durée ferme de six (6) mois à compter de la date de commande, avec possibilité de reconduction par périodes optionnelles de six (6) mois, dans la limite de la durée du contrat.
CDI

Offre d'emploi
Ingénieur DevOps – Nantes (H/F)

AUBAY
Publiée le
DevOps
Java
Python

40k-50k €
44000, Nantes, Pays de la Loire
Tu veux rejoindre un projet d’envergure ? Tu aimes travailler au croisement du développement, du cloud et de la production ? Aubay Solutec Grand Ouest cherche un(e) Ingénieur DevOps / Intégration Applicative pour accompagner la transformation digitale d’un client grand compte. Notre ADN : 🔹 Expertise 🔹 Innovation 🔹 Collaboration 🔹 Engagement 🔹 Éthique 🎯 Ta mission : garantir la fiabilité, la performance et l’exploitabilité de solutions critiques. Intégré(e) à une squad Agile, tu joueras un rôle clé sur l’ensemble du cycle de vie applicatif, de la conception au run, en intervenant sur des infrastructures Cloud Native. Tes responsabilités : Prendre en charge des projets de bout en bout : études, conception, automatisation, déploiement et suivi post-mise en production. Concevoir, déployer et maintenir des architectures Cloud (AWS / GCP selon les projets). Mettre en place, fiabiliser et automatiser les environnements via Terraform , Ansible et les outils IaC Cloud Natif. Définir et industrialiser les pipelines CI/CD (GitLab CI/CD, Jenkins, Digital AI, Nexus/Artifactory). Assurer l’intégration et la gestion des images Docker au sein des écosystèmes Kubernetes / Helm . Garantir la stabilité, la résilience et la sécurité des produits en production ; contribuer activement à la résolution d’incidents. Déployer et améliorer les outils de supervision / monitoring : Dynatrace, ServiceNow, ELK, SonarQube . Rédiger une documentation claire et fiable pour les équipes métiers et les équipes d’exploitation. Participer à la montée en compétences des squads métier (présentations, démonstrations, bonnes pratiques). Contribuer à l’amélioration continue des pratiques DevOps (automatisation, observabilité, fiabilité, tooling). 🧰 Ton environnement technique · Docker, Kubernetes (GKE / Cloud), Helm · Terraform, Ansible, GitLab Ops · GitLab CI/CD, Jenkins, Digital AI, Artifactory, Nexus, SonarQube · AWS, GCP (selon projets) · Python, Shell · Spark3 / Hadoop, pipelines IA / LLM (selon contexte) · Agile (Scrum / SAFe)
Freelance

Mission freelance
Expert Data Transfer / Intégration SI

Codezys
Publiée le
API
Control-M
Middleware

12 mois
450-500 €
Paris, France
Dans le cadre d’un projet relatif à l’intégration d’une société d’investissement au sein d’une société de gestion d’actifs, nous recherchons un expert en transferts de données et interconnexions entre systèmes d’information. L’objectif est d’accompagner la mise en place des flux de données et des connecteurs nécessaires entre les applications existantes de la premier organisme et celles du second, afin de garantir une transition efficace, sécurisée et maîtrisée. Description de la mission L’expert interviendra sur des sujets liés à l’intégration applicative et à la circulation des données entre SI, en étroite collaboration avec les équipes techniques déjà en place (middleware, ordonnancement, connectivité, applicatifs, etc.). Principales responsabilités Analyser les besoins de transfert de données entre les systèmes d’information des deux entités. Participer à la conception et à la mise en œuvre des connexions et flux nécessaires. Travailler avec les experts internes sur les volets : Middleware Scheduling / Ordonnancement Connectivité réseau Applications et interfaces Définir les modalités techniques de transfert : protocoles, formats, fréquences, sécurisation, monitoring Contribuer à la fiabilisation des échanges (tests, validation, résolution d’incidents). Documenter les solutions mises en place (schémas de flux, procédures, référentiels techniques).
Freelance

Mission freelance
Ingénieur Data senior

JobiStart
Publiée le
AWS Cloud
Python

1 an
400-550 €
Île-de-France, France
Intervenir sur des programmes stratégiques Data et Intelligence Artificielle au sein de la DSI, sur un socle Cloud orienté Data Intelligence Apporter une expertise Data et Machine Learning Engineering pour concevoir, déployer et exploiter des solutions analytiques et IA à l’échelle Mettre en place des chaînes complètes de gestion de la donnée, depuis l’ingestion jusqu’à l’exposition des usages data et IA Développer et automatiser des flux de données distribués en s’appuyant sur les services Cloud AWS Construire et maintenir des pipelines robustes intégrant orchestration, traitement et stockage des données Participer à la structuration et à l’industrialisation des environnements MLOps et des cycles de vie des modèles ML et IA générative Déployer, superviser et automatiser les plateformes de Machine Learning (SageMaker) et les mécanismes de monitoring associés Réaliser des traitements analytiques, transformations de données et optimisations sur des plateformes de type data warehouse cloud Mettre en œuvre des processus CI/CD et des déploiements automatisés via des outils DevOps Développer des briques techniques Data/IA exploitables par les équipes internes (pipelines, services, composants applicatifs) Participer aux phases de conception, d’architecture, de tests, d’intégration et de mise en production des solutions Alimenter et maintenir les environnements nécessaires aux produits data, analytiques et applicatifs Accompagner les équipes Data Science et techniques dans la clarification des besoins Data/IA Faciliter l’industrialisation et la mise à disposition rapide des cas d’usage Produire la documentation technique et contribuer au respect des standards d’architecture, sécurité et gouvernance

Les métiers et les missions en freelance pour Python

Data scientist

Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.

Data analyst

Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.

764 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous