L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 926 résultats.
Mission freelance
Backend Python AI Developer
Groupe Aptenia
Publiée le
Django
FastAPI
JSON Web Token (JWT)
6 mois
550-600 €
Paris, France
🔍 Nous recherchons un Développeur Backend Python expérimenté pour renforcer une équipe technique dans un environnement orienté API, intégration de systèmes et workflows métiers . 🎯 Vos missions principales ✅ Développement backend & APIs Conception et développement d’APIs avec FastAPI Structuration du code (clean architecture, modularité) Optimisation des performances et de la scalabilité ✅ Data & intégration systèmes Modélisation des données avec Pydantic (validation, robustesse) Intégration avec des systèmes métiers (APIs externes / internes) Développement de connecteurs et gestion des flux inter-applicatifs ✅ Sécurité & workflows métiers Mise en place de l’authentification (JWT, OAuth2) et gestion des droits Implémentation de logiques métier complexes et traitements asynchrones Mise en place de workflows (human-in-the-loop, orchestration type LangGraph en option)
Mission freelance
Lead Développeur Python (H/F)
CELAD
Publiée le
1 an
410-435 €
Obernai, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Obernai - Expérience de 5 ans minimum Vous aimez faire le lien entre métiers et IT et transformer les besoins en solutions concrètes ? On a une mission pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Développeur Python pour accompagner notre client dans le secteur de l’énergie. Vos missions : Vous prenez en charge les développements techniques de bout en bout : Vous interviendrez sur : - Développement d’API backend en Python / FastAPI - Création d’endpoints REST (structurés, versionnés, documentés) - Implémentation et configuration des serveurs MCP - Validation des données via Pydantic - Gestion des erreurs, logs, modèles, sécurité et performance - Structuration des couches d’accès aux données et intégrations Azure Vous construirez des workflows multi‑agents à l’aide de : - LangChain, ou Microsoft Agent Framework Incluant : - Routing intelligent - Définition et intégration d’outils (tools) - Gestion du contexte / mémoire - Patterns multi‑agents - Mise en place des prompts et interactions agentiques Qualité, exploitation & industrialisation : - Tests unitaires et d’intégration - Revue de code - Observabilité (logs, traces, métriques) - Sécurité des API et contrôles d’accès - Suivi des performances et optimisation - Mise en production dans Azure Azure & API Management : - Exposition et gestion des API via Azure API Management - Intégration avec les services Azure (Functions, App Services, stockage…) - Industrialisation et packaging du backend Encadrement & leadership technique : - Encadrer techniquement les développeurs - Proposer et instaurer des bonnes pratiques de développement - Résoudre les problématiques complexes (architecture, performance, sécurité) - Accompagner l’équipe vers la montée en autonomie - Structurer l’environnement backend et les méthodes de travail Situation géographique : Obernai (67) Quelques infos importantes à retenir : - 3 jours de télétravail possible - Anglais obligatoire
Offre d'emploi
Analyste DATA et DATASCIENCE
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Bordeaux, Nouvelle-Aquitaine
Prestation d'analyse DATA et DATASCIENCE Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ Fort d'une expérience DATA, le prestataire devra également montrer une appétence particulière dans le domaine fonctionnel Définition de la prestation attendue : Rattaché à l'équipe Analyse de la donnée, l’intervenant aura pour principales missions : Mise en oeuvre de cas d'usage métiers par croisement de la donnée (ciblage, analyse de donnée ou datascience ) Développement et maintenance de produits DATA réutilisables Publication des résultats d'analyse avec de la DATAVIZ Respect des normes et bonnes pratiques au sein de l’équipe Accompagnement et acculturation des équipes métiers ou autres Python, Pyspark,SQL,Dataviz, Datascience Plateforme : BIG DATA Hadoop (CLOUDERA) Langages : Python, PySPARK, SQL Restitution : PowerBI (dataset, dataflow, rapports)
Mission freelance
Data Architecte AWS / Iceberg
Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API
12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Mission freelance
Generative AI Engineer (H/F) 92
Mindquest
Publiée le
Amazon S3
AWS Cloud
Python
3 mois
La Défense, Île-de-France
Développement IA / Computer Vision: - Concevoir et développer de nouveaux cas d’usage en vision par ordinateur : - Détection de corrosion - Segmentation 2D/3D - Classification d’anomalies - Améliorer les performances et la robustesse des modèles existants MLOps & Industrialisation: - Concevoir et déployer une infrastructure MLOps complète sur AWS - Structurer et automatiser les pipelines de Machine Learning : - Entraînement - Validation - Versioning - Déploiement - Mettre en place le suivi des expérimentations et la gestion des modèles - Définir et appliquer les bonnes pratiques d’industrialisation : - CI/CD - Monitoring des modèles - Gestion des versions Gestion des données: - Gérer et structurer les datasets d’images 2D/3D issus des drones - Contribuer à l’amélioration continue de la qualité des données Collaboration transverse: - Travailler en étroite collaboration avec les équipes techniques et métiers - Assurer la cohérence technique et fonctionnelle des solutions développées
Offre d'emploi
Data Scientist
VISIAN
Publiée le
Machine Learning
Python
SQL
1 an
40k-45k €
140-480 €
Paris, France
Mission La mission d'une institution financière majeure est de contribuer à une croissance responsable et durable par un financement de l'économie dans le respect des plus hauts standards éthiques, en particulier dans les domaines de l'anti-blanchiment d'argent, de la lutte contre le terrorisme, et de la lutte contre la fraude et l'ingénierie sociale. L'optimisation des services opérationnels via la science des données représente une opportunité majeure pour notre entreprise de se démarquer sur le marché. Descriptif du Poste Assurer la recherche de données et la mise au point de modèles performants afin d'assister de nombreuses équipes de la banque commerciale dans leur effort d'identification et d'analyse des comportements suspects. Déployer et intégrer ces modèles dans les infrastructures et flux de travail de l'entreprise en assurant un impact positif et maîtrisé. Profil Recherché Nous cherchons un profil capable de développer et intégrer des solutions avancées de data science appliquée à des données structurées en priorité. Des compétences en traitement du langage naturel (NLP traditionnelle, voire GenAI) seraient un plus permettant de proposer à nos clients internes des fonctionnalités différenciantes et l'évolution en interne du profil vers d'autres projets. Ce profil doit connaître en détail le fonctionnement de nombreux algorithmes d'apprentissage, supervisé comme non supervisé, et être en pleine possession des méthodologies d'évaluation de modèles. Idéalement, le candidat devrait avoir une expérience pratique dans des projets similaires et démontrer une capacité à traduire un problème concret en problème mathématique au moyen des données. Une excellente maîtrise de Python et de SQL est en outre nécessaire. Des compétences de type "soft skills" seront également incontournables, comme la gestion de projet, une écoute de qualité avec les interlocuteurs métier ainsi qu'une bonne communication, et un goût de la collaboration et le partage des connaissances, notamment avec les autres data scientists et les équipes techniques et opérationnelles (MLE, MLOPS, OPS).
Offre d'emploi
Développeur Fullstack .NET / Python & IA Générative (Trading & Risk)
VISIAN
Publiée le
.NET
3 ans
40k-45k €
400-600 €
Île-de-France, France
Le Contexte : Au sein d'un acteur majeur du secteur de l'énergie, vous intégrez un département en pleine transformation logicielle. L'objectif est de sécuriser le déploiement d'un nouveau progiciel financier mondial via l'automatisation et l'IA. 🎯 Votre Mission : Framework QA intelligent : Concevoir et automatiser un framework de tests pour l'ensemble de la chaîne applicative de trading. Innovation IA : Développer des POCs utilisant l' IA Générative pour l'analyse d'anomalies, la génération de cas de tests et l'optimisation de la couverture. Développement Fullstack : Créer des outils internes et des tableaux de bord (Angular/React) pour le suivi de la qualité. DevOps & Data : Intégrer les tests dans des pipelines CI/CD complexes et manipuler des données de marché via Python. 💻 Profil Recherché : Expérience : +10 ans, avec une solide culture en Finance de marché ou Commodités. Stack : C# .NET, Python (scripting/data), Angular ou React, SQL. Expertise QA : Maîtrise des outils d'automatisation UI/API et des orchestrateurs de batchs (type Automic). Mindset : Passionné par l'IA et capable d'évoluer dans un environnement à forte résistance au stress.
Offre d'emploi
Développeurs IA / Back-end Senior Python
Hexateam
Publiée le
AWS Cloud
Docker
Google Cloud Platform (GCP)
1 an
40k-48k €
480-550 €
France
Nous recherchons 2 développeurs expérimentés (≥ 7 ans) en IA & back-end pour intervenir sur des projets innovants. Missions : Pilotage de projets data & IA Développement de solutions IA Production de livrables (roadmap, KPI, cadrage, reporting…) Stack Technique : Python (pandas, scikit-learn, TensorFlow, PyTorch), LangChain, HuggingFace Cloud (Azure, AWS, GCP) Docker, Kubernetes, CI/CD, MLOps / GenAIOps RAG, bases vectorielles (ChromaDB, PGVector) Profil +7 ans d’expérience Expertise IA & back-end Esprit d’analyse, leadership et proactivité CDI/Freelance – Démarrage ASAP
Offre d'emploi
Développeur(se) Python - Lyon (69) (H/F)
█ █ █ █ █ █ █
Publiée le
Git
Java
Linux
38k-45k €
69001, Lyon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Consultant BI / DataViz Senior (H/F/X)
MSI Experts
Publiée le
Data visualisation
Microsoft Power BI
Python
1 an
10k-40k €
100-420 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre du renforcement d’une équipe Data, nous recherchons pour un client lyonnais un Consultant BI / DataViz Senior pour accompagner les métiers dans la valorisation de leurs données et la création de tableaux de bord à forte valeur ajoutée. Vos missions principales Recueillir et analyser les besoins fonctionnels et techniques Concevoir une architecture de données performante et adaptée Participer à la modélisation et à l’enrichissement de datawarehouses / datamarts Développer et optimiser des dashboards interactifs et ergonomiques Collaborer étroitement avec les équipes métiers pour affiner les usages Garantir la qualité, la lisibilité et la pertinence des visualisations
Mission freelance
Senior Software Engineer (Python avec forte composante DevOps)-Secteur finance
AVALIANCE
Publiée le
DevOps
FastAPI
Finance
1 an
400-700 €
Île-de-France, France
1-Gestion de la chaine CI/CD : o Assumer le rôle de Release Manager pour les projets de l'équipe. o Développer et maintenir les environnements CI/CD. 2-Réduction de la Dette Technique : o Assurer les efforts de réduction de la dette technique par le biais de migrations, de mises à niveau et d'améliorations continues. o Organiser et animer la revue de la dette technique ITMO. 3.Pratiques DevOps : o Intégrer et promouvoir les pratiques DevOps pour améliorer l'efficacité des processus de développement et de déploiement. o Travailler à l'automatisation des workflows, à l'intégration continue et à la livraison continue. 4.Architecture et Design : o Concevoir et mettre en œuvre des architectures système robustes et évolutives pour répondre aux besoins évolutifs de l’équipe. o Collaborer avec les autres ingénieurs pour s'assurer que les solutions architecturales respectent les meilleures pratiques de l'industrie et les standards internes. o Analyser les systèmes existants et proposer des améliorations architecturales pour optimiser les performances et l'efficacité.
Mission freelance
Développeur(euse) Big Data
CAT-AMANIA
Publiée le
Apache Spark
Hadoop
Python
12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Description du poste : Dans le cadre de l'activité Big Data de notre client, nous recherchons un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans nos actions sur notre plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs.
Mission freelance
246242/Data Scientist/IA Gen/Machine Learning / Deep Learning - Nantes
WorldWide People
Publiée le
IA Générative
3 mois
Nantes, Pays de la Loire
Data Scientist/IA Gen/Machine Learning / Deep Learning - Nantes Compétences et expériences demandées : Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. Connaissance de SQL Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Pratiquer une veille active sur vos domaines de compétence. Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe Objectifs et livrables Activité principales attendues : Machine Learning / Deep Learning Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. Création et production de modèles d'apprentissage automatique industrialisables Traitement de données à grande échelle pour la création de jeux de données d'entraînement Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen Prompt engineering Bench via des solutions d'évaluation des modèles d'IA Gen Optimisation des solutions (paramétrage des modèles) Compétences demandées Compétences Niveau de compétence machine learning Confirmé python Confirmé IA générative Confirmé
Offre d'emploi
Développeur Python – IA / DevOps (H/F)
NSI France
Publiée le
Python
1 an
50k-55k €
500-600 €
Île-de-France, France
Nous recherchons un Développeur Python confirmé , doté d’une forte expertise technique, d’une appétence pour l’IA et d’une réelle sensibilité DevOps. Ce poste ne vise pas un profil Data Scientist ou Data Engineer : il s’agit d’un rôle de développeur Python haut niveau , capable d’intégrer, d’opérer, d’industrialiser et de fiabiliser des services IA. Responsabilité de la mission Intégrer et maintenir les services d’IA au sein d’une plateforme IA interne . Déployer et maintenir les composants de l’IA générative : LLMs, modèles d’embeddings, bases vectorielles, agents, orchestrations. Accompagner l’identification et le déploiement de cas d’usage IA pertinents au sein du groupe (contexte international). Maintenir les plateformes permettant la publication des services IA et les frameworks associés. Maintenir la plateforme de R&D mise à disposition des data scientists et leur apporter un support technique. Participer activement à la réduction de la dette technologique, notamment via la containerisation et l’industrialisation des composants.
Mission freelance
UI/UX Data Designer (H/F) - IDF + Remote
Mindquest
Publiée le
Databricks
Figma
Microsoft Power BI
3 mois
330-480 €
Roissy-en-France, Île-de-France
Le chantier Cockpit a pour objectif de construire des outils de pilotage afin d'assister dans la prise de décision. Dans ce chantier, le Design System DataViz a été construit avec l'objectif de rendre les informations complexes accessibles et exploitables grâce à une visualisation claire et intuitive. La construction du Design System DataViz est au coeur de la construction des outils de pilotage (chantier Cockpit). Il s'agit de construire un langage commun pour l’ensemble des métiers en standardisant les éléments design et les composants visuels Power BI. Contenu détaillé de la prestation : Vous allez travailler étroitement avec le directeur de projets Design System DataViz, les équipes Data et les métiers. Le but de la prestation consiste à l'accompagnement UX/UI design dans la production DIRECTION DES SYSTEMES D'INFORMATION Le but de la prestation consiste à l'accompagnement UX/UI design dans la production et livraison d'éléments design et graphiques, de composants Power BI dessinés dans le cadre du design system DataViz, de maquettes Power BI. - Comprendre les besoins et les enjeux à piloter - Comprendre les connaissances nécessaires pour le pilotage et la décision - Traduire les besoins/enjeux en conception et en design en s'appuyant sur le design system actuel Par exemple : o Mettre en place les scénarisations des KPI o Mettre en place la hiérarchisation visuelle par typographie et graphique o Mettre en place les filtres interactifs… - Concevoir / produire les éléments de design pour répondre au besoin conception - Produire / enrichir / standardiser le design system - les éléments design pour conception (ex: palette de couleurs contrastées, encadrés et pictogrammes, graphiques enrichis et dessinés…) - Produire / faire évoluer / enrichir / standardiser le design system es composants Power BI pour Dashboard - Maintenir / faire évoluer / produire la bibliothèque design system conception (éléments design) - Maintenir / faire évoluer / produire la bibliothèque design system Power BI (composants PBI dessinés) - Produire les maquettes Power BI Attentes pour la prestation • Conception / réalisation des outils de pilotage pour les différents enjeux / métiers • Réalisation des éléments design • Réalisation des éléments Power BI dessinés • Réalisation des maquettes / reportings PBI dynamiques • Enrichissement et gestion de nos dictionnaires design system • Rédaction des cahiers des charges, spécifications fonctionnelles et techniques nécessaires • Garant de la qualité de réalisation Le(la) consultant(e) va travailler sur les environnements (Figam, PowerBI, Azure, Databricks, SQL, …) co-managé par les équipes Data Factory ainsi que les équipes DCLD (direction client digital). Livrables • Design system – éléments de conception UIUX • Design system – composants Power BI dessiné • Reportings/Maquettes Power BI dynamique • Cahiers des charges / CR / Dictionnaires • Présentation / Documentation Technique • Figma • Power BI / DAX • Cloud Azure • Databricks • SQL • Python, Spark, Scala • Spyder…
Offre d'emploi
Data Analyst - confirmé - CDI - Rouen H/F
GROUPE ARTEMYS
Publiée le
76000, France
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Contexte de la mission : Le pôle Data & BI de notre client est engagé dans une dynamique de renforcement pour 2026, avec des enjeux forts autour de la structuration des usages BI, de la consolidation des données et de la mise à disposition de la donnée aux métiers dans une logique de self-BI. Les travaux portent à la fois sur la refonte de l’existant et sur la construction de nouvelles briques data, avec une volonté claire de professionnaliser les pratiques et de sortir progressivement d’un fonctionnement trop orienté production. Objectif de la mission : En tant que Data Analyst / BI Engineer, vous intervenez comme profil de construction au cœur de l’ingénierie data : Concevoir et structurer les modèles de données analytiques Fiabiliser les chaînes de traitement de données Mettre à disposition une donnée exploitable et autonome pour les métiers Contribuer à la mise en place de process data robustes (build / run / fiabilisation) Votre mission (si vous l’acceptez) : Build Conception et développement des pipelines d’ingestion et de transformation Construction de bases de données analytiques Modélisation décisionnelle (modèle en étoile) Conception de cubes pour la mise à disposition de la donnée métier Développement orienté Python, avec une approche code-first et versionnée (Git) Run Maintien et évolution des traitements existants Supervision et optimisation des flux de données Contribution à la stabilité de la plateforme data Fiabilisation (enjeu clé du poste) Mise en place de contrôles de qualité de données Sécurisation et structuration des process Contribution à la réduction des interventions directes en production Vous, notre perle rare : Compétences techniques Expérience confirmée en Data / BI Maîtrise de la conception de bases de données analytiques Solide pratique de la modélisation décisionnelle Expérience en Python appliqué au traitement de données Sensibilité forte aux bonnes pratiques de développement logiciel Compétences fonctionnelles Capacité à comprendre les enjeux métiers et à les traduire en modèles data Appétence pour les sujets de construction et de structuration Intérêt marqué pour la qualité et la fiabilité de la donnée Soft skills Esprit structurant et pragmatique Capacité à travailler dans un contexte en transformation Goût pour les environnements techniques exigeants et évolutifs Environnement technique : Cloud : Azure / Data Fabric Ingestion & orchestration : outils Azure, usage orienté code (non low-code) Langage : Python Modélisation : data marts, modèles en étoile, cubes Méthodologie : pratiques issues du développement logiciel (Git, traçabilité, structuration) Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération et conditions : CDI Salaire : 37k€ à 40k€ en fonction du niveau d'expérience Prise de poste ASAP Mode de travail hybride, 1 journée de télétravail par semaine Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
926 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois