L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 7 130 résultats.
Mission freelance
Développeur Scripting (Python / Shell) – Automatisation & Data – Secteur Bancaire (H/F)
CELAD
Publiée le
API
CI/CD
Python
12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur orienté scripting, automatisation & data pour intervenir chez l’un de nos clients du secteur bancaire . Dans un contexte de transformation, de rationalisation du SI et de pilotage de la performance IT, vous rejoignez une équipe transverse et intervenez sur des sujets à forte valeur ajoutée : automatisation, exploitation de données, conformité, industrialisation et pilotage applicatif. 🎯 Vos missions 🔹 Automatisation & exploitation de la donnée Conception et développement de scripts d’automatisation Collecte, nettoyage, consolidation et historisation de données issues de multiples outils Analyse du planifié vs réalisé et identification des écarts Mise en place de snapshots périodiques et production d’indicateurs de pilotage 🔹 APIs, logs & industrialisation Conception et développement d’APIs (exposition / consommation) Mise en place d’une base de logs centralisée Automatisation des flux de remontée d’information Industrialisation et fiabilisation des traitements 🔹 Conformité & qualité du SI Extraction et exploitation de données issues d’outils d’industrialisation et CI/CD Analyse des normes, détection d’anomalies et d’écarts Construction d’indicateurs de conformité et maturité 🔹 Référentiels & pilotage projet Contribution à la structuration du référentiel projets Études autour des APIs d’outils de gestion de projets Analyse des points de blocage techniques et organisationnels
Offre d'emploi
Data Analyst Qlik Sens - Rennes
Argain Consulting Innovation
Publiée le
Qlik
Qlik Sense
Qlikview
2 ans
40k-45k €
450-470 €
Rennes, Bretagne
Dans le cadre du renforcement de l’équipe décisionnelle, nous recherchons une prestation spécialisée dans la restitution et l’analyse de données sous Qlik afin d’accompagner les métiers dans la construction, l’évolution et l’optimisation de leurs tableaux de bord. Principales missions Accompagnement des métiers dans l’expression des besoins et participation aux phases de recette fonctionnelle. Analyse des sources, modélisation décisionnelle et conception des applications Qlik. Développement, évolution et maintenance de tableaux de bord QlikView et/ou Qlik Sense . Mise en forme, datavisualisation et valorisation des données pour faciliter l’aide à la décision. Contribution à l’optimisation des performances : modèles de données, scripts de chargement, organisation des applications. Documentation fonctionnelle et technique, participation aux travaux d’industrialisation. Support, diagnostic et résolution d’incidents sur les applications de restitution.
Offre d'emploi
Data Analyst GCP
█ █ █ █ █ █ █
Publiée le
BigQuery
SQL
Île-de-France, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
CONSULTANT BI DASTASTAGE & POWER BI (H/F)
GROUPE ALLIANCE
Publiée le
PostgreSQL
Scrum
SQL
50k-65k €
France
ACCROCHE SI LA GESTION DES DONNEES EST TON DADA, TU PEUX GAGNER LA COURSE EN LISANT CETTE ANNONCE ... CE QUE TU RECHERCHES : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à la gestion et à l’analyse de données Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur de l'assurance, tu participeras aux développements de programme Dataware, Datamart, Datasets, Dataflows et rapports Power BI : Analyse des besoins, tu feras Modélisation et structuration des données, tu assureras Les pipelines de données, tu développeras Les bonnes pratiques de gestion des données, tu instaureras Des solutions de stockage et de traitement, tu optimiseras Des analyses avancées et de la valorisation des données, tu réaliseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou dôté(e) d’une expérience de 8 ans minimum Expert(e) en gestion et analyse de données , de l'alimentation (ods, dwh, datamart) à la partie restitution dans un contexte Agile Habile avec les outils et langages Datastage, Power BI, SQL, Agile Scrum AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Mission freelance
Data Engineer Informatica Talend Power B.I SQL (F/H)
CELAD
Publiée le
Big Data
Informatica
Microsoft Power BI
12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Data Engineer – Plateforme Epargne Financière pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Sécuriser la gestion de l’actualisation de l’offre Epargne Financière en lien avec les équipes partenaires distributeurs et producteurs. - Faire évoluer la solution en respectant les standards à jour : implémentation de changements à valeur ajoutée pour le business et traitement de la dette technique. - Contribuer à la gestion du RUN et renforcer la robustesse de la solution. - Renforcer la supervision et la qualité des données.
Offre premium
Offre d'emploi
Testeur Fonctionnel
FIRST CONSEIL
Publiée le
API
Confluence
JIRA
6 mois
25k-35k €
300-400 €
Île-de-France, France
En tant que testeur fonctionnel au sein de la Digital Factory, vous serez garant(e) de la qualité, de la fiabilité et de la performance de nos plateformes digitales utilisées au quotidien par nos équipes et nos clients. Vous interviendrez sur l’ensemble du cycle de développement en collaboration étroite avec les équipes Produit. Qualité & Testing : Définir la stratégie de test (unitaires, intégration, e2e, non-régression) Concevoir et exécuter des plans de test fonctionnels Identifier, documenter et suivre les anomalies Prioriser les incidents selon leur impact métier Suivre les correctifs jusqu’à validation finale Maintenir une traçabilité claire des tests Exécution & Validation : Exécuter les campagnes de tests manuels (fonctionnels, non-régression, exploratoires) Tester les APIs via Postman (validation des réponses, statuts, contrats) Tester les interfaces Web et Mobile Vérifier la cohérence des données en base ou dans les systèmes tierces Contrôler la conformité aux exigences métier Maintenir les tests automatisés existants Contribution à la qualité globale : Participer activement aux rituels agiles Challenger les spécifications lorsque nécessaire Proposer des améliorations fonctionnelles Contribuer à l’amélioration continue des processus QA
Offre d'emploi
Consultant ElasticSearch & Dynatrace (H/F)
QODEXIA
Publiée le
Dynatrace
Elasticsearch
ELK
10 jours
Île-de-France, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Localisation : France (100% Télétravail) Démarrage : ASAP Secteur : Banque
Offre d'emploi
📩 Data Scientist Confirmé – Computer Vision
Gentis Recruitment SAS
Publiée le
CI/CD
Computer vision
Docker
6 mois
40k-45k €
400-600 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une première version (V0) d’une solution de détection pour des applications dans le secteur naval, notre client, acteur industriel majeur dans le domaine de la défense et des technologies, recherche un Data Scientist Senior spécialisé en Computer Vision . Le projet porte sur l’analyse d’images et de flux vidéo avec des enjeux forts de précision, de robustesse et de mise en production rapide. Missions Participer au cadrage fonctionnel et technique avec les équipes métiers Concevoir et développer des modèles de Computer Vision (détection, reconnaissance, identification) Développer, entraîner et valider des modèles Machine Learning / Deep Learning Assurer le déploiement et le cycle de vie des modèles (MLOps) Contribuer activement à la livraison d’une V0 dans un environnement en sprint court Animer des workshops techniques avec les équipes projet (PO, DevOps, Architectes, Développeurs) Garantir la qualité, la performance et la maintenabilité des solutions développées
Mission freelance
Ingénieur·e Data / DevOps
ATTINEOS
Publiée le
DevOps
1 an
320-470 €
Rouen, Normandie
Vous aimez évoluer sur des environnements data, manipuler de gros volumes de données et intervenir aussi bien en développement qu’en exploitation ? Cette opportunité est faite pour vous ! Nous recherchons un·e Ingénieur·e Data / DevOps pour renforcer une équipe intervenant sur des sujets à forte dominante data et bases de données. Au sein de l’équipe, vous interviendrez principalement sur des activités de RUN avec une forte composante développement, dans un environnement orienté data. Vos principales responsabilités : Développement autour des environnements Altair Intervention sur des problématiques data et bases de données Maintien en conditions opérationnelles des applications Analyse et résolution d’incidents Optimisation des traitements et des performances Contribution à l’amélioration continue des outils et des process Environnement technique : Altair, Bases de données (SQL), Environnement data, Notions DevOps et infrastructure (appréciées)
Offre d'emploi
Développeur Python / IA
CAT-AMANIA
Publiée le
Agent IA
DevOps
Python
40k-60k €
Levallois-Perret, Île-de-France
AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte * une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée * un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. * une plateforme d'exécution des modèles de Datascience, Sparrow Serving * et un outil de Community Management, Sparrow Academy L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : • Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; • Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; • Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; • Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; • Être force de proposition et participer aux POCs. Stack Technique de l’équipe : • Langages : Python, Golang, Bash • GNU/Linux • Kubernetes • DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize • Cloud services : Certmanager, Redis, Grafana, Jaeger, Prometheus, ELK, MinIO, Postgres Pre requis : • Expérience dans la prestation en python ; • Maîtrise de GitLab et des processus de CI/CD ; • Bonnes connaissances des infrastructures Cloud (système distribué et Object Storage) ; • Connaissance en machine learning et data science ; • Très bonnes connaissances en Intelligence Artificielle ; • Connaissances en Kubernetes sont un plus ; • Orienté clients, capacité à collaborer et communiquer à l’oral et à l’écrit ; • Niveau d’anglais correct à l’écrit et à l’oral ; • Méthodique et autonome • Intéressé par le monde open source
Mission freelance
CP AMOA - SIRH (H/F)
Insitoo Freelances
Publiée le
AMOA
RGPD
SIRH
2 ans
350-385 €
Marseille, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un CP AMOA - SIRH (H/F) à Marseille, France. Les missions attendues par le CP AMOA - SIRH (H/F) : Livrables • Cahier de recette conforme et validé par les équipes fonctionnelles • Supports de formation adaptés aux différents profils utilisateurs (RH, managers, agents) • Documentation utilisateurs liée au fonctionnement et aux processus de l’outil • Supports et comptes rendus de réunions fonctionnelles (ateliers, comités, présentation) • Référentiel documentaire consolidé (documentation, retours de recette, capitalisation fonctionnelle) • Plan de test / plan de recette validé fonctionnellement • Indicateurs et tableaux de suivi (avancement, corrections, actions) produits au fil de la mission • Livrables associés aux prestations à bons de commande (documentation, comptes rendus, supports de formation, tableaux de suivi) Compétences 1) Obligatoires Maîtrise des activités AMOA : plan de recette, cas de tests, consolidation des retours, coordination projet. Compétences avérées en accompagnement au changement et production de documentation. Capacité à rédiger des supports de formation et à animer des sessions pour différents profils utilisateurs. Aisance dans la coordination multi‑acteurs : SIRH, équipes métiers, pôle numérique. Qualités rédactionnelles et organisationnelles démontrées (comptes rendus, plan d’action, suivi des correctifs). 2) Importantes Connaissance du fonctionnement du secteur public et des processus RH (entretiens professionnels, chaîne managériale). Expérience de conduite de projets en environnement structuré (IT / SIRH). Maîtrise des outils bureautiques pour la production de livrables. Familiarité avec des méthodes de recette fonctionnelle et logique de validation. 3) Intéressantes pour la mission Expérience préalable sur un outil de gestion des entretiens professionnels annuels. Connaissance des principes RGPD dans un contexte RH. Expérience en animation d’ateliers collaboratifs ou gestion documentaire. Appétence pour les environnements en réorganisation ou nécessitant une forte adaptation.
Offre d'emploi
EXPERT SPARK DATA ENGINEER H/F
CELAD
Publiée le
42k-50k €
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Offre d'emploi
Architecte Data
R&S TELECOM
Publiée le
Apache Hive
Cloudera
Hadoop
1 mois
Lyon, Auvergne-Rhône-Alpes
Le profil interviendra pour définir, concevoir et accomagner la construction de l'architecture cible Data. Ses missions principales seront de : Définir l’architecture cible Data : concevoir l’architecture Data cible n, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance).
Offre d'emploi
Consultant en Cyber Résilience & Continuité d'Activité Sénior (F/H) CDI
Audensiel
Publiée le
Business Analysis
Comité de pilotage (COPIL)
Plan de continuité d'activité (PCA)
50k-58k €
Paris, France
📌 À propos de VONA VONA, entité cyber du groupe Audensiel, est un cabinet de conseil spécialisé en cybergouvernance, qui accompagne les directions générales, RSSI, DSI et métiers à structurer, piloter et déployer une gouvernance de la sécurité de l'information créatrice de valeur, alignée sur les objectifs business et les risques prioritaires. Ta mission Dans un contexte de forte croissance, nous renforçons nos compétences en réponse à notre stratégie de développement et aux besoins de nos clients. Tu rejoins VONA en tant qu'expert·e de référence en Cyber Résilience & Continuité d'Activité — sans rattachement exclusif à une practice. Ton périmètre principal portera sur la résilience opérationnelle et la continuité d'activité, avec la possibilité d'intervenir sur d'autres volets connexes (stratégie SSI, gestion des risques, intégration de la sécurité dans les projets) selon les missions, les priorités clients et ton appétence. Tu accompagnes nos clients — industriels, acteurs bancaires, grandes organisations — dans la construction et la mise en œuvre de leur stratégie de résilience : Réaliser des diagnostics de maturité résilience et élaborer des feuilles de route PCA/PRA ; Conduire des Business Impact Analysis (BIA) et définir les stratégies de reprise ; Accompagner la mise en œuvre opérationnelle des plans de résilience ; Tester et faire tester les dispositifs de continuité d'activité ; Sensibiliser et acculturer les équipes DSI et métiers aux enjeux de la résilience ; Assurer le reporting et le pilotage de la gouvernance résilience (COPIL, CODIR).
Mission freelance
PHP Symfony Culture IA et DevOps
Kleever
Publiée le
Architecture
Domain Driven Design (DDD)
PHP
12 mois
500-600 €
Paris, France
Développeur PHP Symfony Senior (Backend / DDD) Contexte : Nous recherchons un développeur PHP Symfony senior pour rejoindre une équipe senior. L’équipe participe à la modernisation générale de la Stack (migration vers cloud, découpage d’applications, CDC, intégration au Legacy). Fort niveau d’adhérence entre équipes produit, SRE et autres services. Missions principales : Développer et maintenir des API backend en PHP / Symfony selon les principes DDD. Concevoir et implémenter des agrégats, events et workflows asynchrones (RabbitMQ). Participer au design d’architecture (hexagonal, CQRS) et aux décisions techniques de l’équipe. Assurer la qualité : TDD, tests unitaires, fonctionnels et end-to-end, revues de code. Collaborer étroitement avec les SRE pour le debugging infra et le déploiement (CI/CD, containers, monitoring). Contribuer au 70 % Build / 30% run / résolution d’incidents sur des services critiques et à la maintenance corrective. Faciliter la communication inter-équipes : produire ADRs, clarifier langages métiers/événements. Profil recherché (compétences techniques) : Excellente maîtrise de PHP et Symfony (développement d’API REST/GraphQL, bonnes pratiques Symfony). Connaissances DDD, BDD, architecture hexagonale, CQRS et conception d’agrégats. Vous cherchez une mission Craft pour changer de poste. Expérience sur systèmes asynchrones (RabbitMQ, CDC) et mécanismes d’événements. Tu es sur une mission depuis des mois tu sens que ton équipe ne va plus dans le sens de l’histoire. Tu fais énormément de veille tout en étant pragmatique. Tu ne reste pas sur tes acquis malgré un niveau d’expertise avancé. Tu as envie de partager ton expertise avec tes pairs a Tu as déjà travaillé sur des équipes d’expert ou participer a la création partie tech d’un startup (Pas solo) de A a Z. Bonnes pratiques de tests : unitaires, fonctionnels, E2E ; expérience TDD appréciée. Confort avec cloud AWS ou GCP ou Azure, containers, CI/CD et debugging infra (logs, commandes Linux, SRE collaboration). Notions d’outils d’observabilité et monitoring (metrics, alerting). Modalités : Rythme : sprints Scrum, forte exposition au run et incidents. Environnement : PHP/Symfony principalement, nouvelles apps en Symfony Équipe technique engagée, beaucoup d’initiatives produit et technique, opportunités de modernisation et d’impact sur produits critiques. Mission longue durée pas de limite, préavis de 1 mois accepté Pourquoi rejoindre ? Organisation en 3 J / 2 J - Possibilité de full TT négociable si hors IDF (Idéalement avec accès direct a paris - Lyon, Lille, tours, bordeaux ) le candidat doit être basé en France. Merci de ne pas postuler si vous êtes basé à l'étranger. ESN merci de n'envoyer que des experts, pas de débutant. Tarif indicatif et reste a discuter selon expertise. Merci de proposer une offre réaliste par rapport à votre niveau d'expertise. Je serais ravi d'échanger sur cette mission.
Offre d'emploi
Intégrateur Production Data (Talend/PL-SQL)
TechOps SAS
Publiée le
SQL
Talend
50k-60k €
75003, Paris, Île-de-France
Responsabilités principales : Intégration & interopérabilité Concevoir, développer et maintenir les flux d’intégration entre les différents systèmes (ERP, CRM, e-commerce, logistique…) Assurer la cohérence et la fluidité des échanges de données entre les applications Participer à l’architecture des solutions d’intégration Développement & maintenance Développer et faire évoluer les traitements d’intégration via Talend Écrire, optimiser et maintenir des requêtes complexes en PL-SQL Garantir la qualité, la performance et la robustesse des flux Qualité & gouvernance de la donnée Assurer la fiabilité, l’intégrité et la traçabilité des données Mettre en place des contrôles et outils de monitoring Diagnostiquer et corriger les anomalies Collaboration transverse Travailler en étroite collaboration avec les équipes métiers et IT Participer aux projets de transformation digitale et d’évolution du SI Contribuer aux bonnes pratiques et à l’amélioration continue
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
7130 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois