L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 317 résultats.
Mission freelance
Développeur d'appli. à forte connotation Data
Codezys
Publiée le
API
Azure
Azure DevOps Services
12 mois
360-410 €
Paris, France
Contexte de la mission Au sein de la Direction des Systèmes d'Information (DSI), le service « systèmes connectés » gère un portefeuille de projets couvrant plusieurs applications, dont certaines sont en phase de développement ( BUILD ) et d'autres en exploitation ( RUN ). Nous recherchons un profil expérimenté pour assurer la responsabilité d’un projet existant. Ce projet, récemment mis en production, a pour objectif de fournir des indicateurs via une interface Grafana. Le système comprend une couche « d’ingestion » qui enregistre les données dans une base ElasticSearch, dans un format adapté. Cette étape d’ingestion est orchestrée avec du code Java. Les indicateurs produits permettent au métier de suivre les modules de télérelève et de radio-relevé client (plus d’un million de modules, avec un index quotidien sur trois ans). La mission comprend notamment : La maintenance de l’existant L’analyse des incidents et des questions remontés par le métier afin d’expliquer ou corriger les résultats affichés L’ajout de nouveaux objets métier selon les besoins. Objectifs et livrables Le candidat retenu devra prendre en charge les projets suivants : Projet « Supervision Télérelève » : basé sur une architecture technique Java/ELK/Grafana, il vise à fournir une solution de reporting des données de télérelève aux experts et aux collectivités. Le socle technique étant déjà en place, il sera nécessaire de le maintenir, le faire évoluer en intégrant de nouveaux objets, et de collaborer avec d’autres équipes sur la mise en œuvre de fonctionnalités d’authentification, afin d’intégrer la solution dans d’autres projets. Il est également possible qu’à moyen terme, une migration vers Databricks soit envisagée. Le rôle du consultant sera celui de TechLead et de développeur : il analysera l’existant, assurera des activités de débogage, suivra le backlog et communiquera régulièrement avec le métier, le Product Owner (PO) et, si nécessaire, avec les architectes. En tant que seul acteur technique sur ce projet, le consultant devra faire preuve d’une grande autonomie pour la gestion des sujets techniques.
Offre d'emploi
TECHNICIEN SUPPORT UTILISATEUR / PROXIMITE H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
24k-28k €
Toulouse, Occitanie
Missions principales : En tant que technicien Support Utilisateurs vous auriez comme missions : • Assurer le support de proximité auprès des utilisateurs, en identifiant leurs besoins et en garantissant un traitement rapide et efficace des incidents matériels et logiciels. • Gérer et résoudre les incidents liés aux postes de travail, à la téléphonie fixe et mobile, aux imprimantes et aux équipements réseau. • Participer à la maintenance préventive et corrective du parc informatique (Windows 10/11), en veillant à la disponibilité des postes et des outils. • Réaliser les opérations de câblage réseau et de diagnostic de connectivité, en collaboration avec les équipes techniques. • Renseigner et suivre les tickets d'incidents dans les outils ITSM conformément aux procédures internes. • Contribuer aux déploiements et renouvellements de matériel informatique • Effectuer des contrôles réguliers des équipements de visioconférence afin d'assurer leur bon fonctionnement avant les réunions. Référence de l'offre : 1udugorstf
Offre d'emploi
Data Integration Engineer (ETL Informatica) (F/H)
Argain Consulting Innovation
Publiée le
Informatica
Qlik
SQL
2 ans
40k-45k €
450-470 €
Rennes, Bretagne
Dans le cadre du renforcement de l’équipe décisionnelle, nous recherchons une prestation spécialisée en intégration de données afin de contribuer à l’alimentation et à l’évolution du Data Warehouse et des différents datamarts métiers. Principales missions Accompagnement des métiers dans l’expression des besoins liés aux flux de données et participation aux phases de recette. Analyse des sources, modélisation et conception des traitements d’intégration dans le respect des bonnes pratiques BI. Développement, optimisation et maintenance de flux ETL sous Informatica. Mise en qualité, transformation et préparation des données pour les usages décisionnels. Participation aux travaux d’industrialisation, documentation et amélioration continue de la chaîne de traitement. Contribution au support et au suivi des traitements batch (diagnostic et résolution d’incidents).
Mission freelance
Senior Data Product Manager/ Data Mesh/ Cloud AWS & AZURE / Anglais (H/F)
Octopus Group
Publiée le
BI
Dataiku
Finance
6 mois
550-680 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, Senior Data Product Manager Contexte de la mission : Il s'agit d'un poste à la fois stratégique et hautement opérationnel, chargé de la mise en œuvre concrète et du déploiement de la plateforme de données en libre-service du Groupe, fondée sur les principes du Data Mesh. Le Senior Data Product Manager est responsable de la mise en œuvre pratique, de l'industrialisation et de l'adoption à l'échelle de l'entreprise de la plateforme dans l'ensemble des domaines d'activité. Ce poste requiert un profil orienté vers la construction et l'exécution, capable de définir la vision et de la traduire en une plateforme évolutive, de qualité production et utilisable à grande échelle. Mission Principale : Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform - GDP) en tant que produit interne, en garantissant sa mise en œuvre technique, son adoption par l'entreprise, l'excellence opérationnelle et l'amélioration continue. Gestion de produit (axée sur l'utilisation) et amélioration continue Responsabilités : Identifier les besoins des utilisateurs et les exigences de la plateforme Définir la vision du produit et la feuille de route Mesurer l'utilisation et la création de valeur Améliorer l'expérience des développeurs et des utilisateurs Résultats attendus : Vision du produit et proposition de valeur Indicateurs clés de performance (KPI) de la plateforme et mesures d'adoption Boucles de retour d'information des utilisateurs et liste des améliorations à apporter Feuille de route pour l'amélioration de la plateforme Fourniture de la plateforme (responsabilité principale) Responsabilités : Définir les capacités de la plateforme (produits de données, pipelines, gouvernance, observabilité, accès en libre-service) Définir et faire respecter les normes techniques et les modèles d'architecture Prendre des décisions techniques concrètes et valider les solutions Livrables attendus : Comptes rendus des décisions d'architecture (ADR) Modèles d'architecture de référence et gabarits réutilisables Feuille de route des capacités de la plateforme Normes techniques de la plateforme Architecture et infrastructure cloud Responsabilités : Coordonner la conception et l'exploitation de l'architecture cloud et hybride en collaboration avec l'architecte de données du groupe Coordonner avec l'équipe de mise à disposition des données du groupe la mise en œuvre sur Amazon Web Services et Microsoft Azure Diriger l'intégration des systèmes sur site Veiller au respect des exigences en matière de sécurité et de conformité Résultats attendus : Plan directeur de l'architecture cloud (avec l'aide de l'architecte de données du groupe) Cadre de sécurité et de gestion des accès Gestion de la livraison et de l'exécution Responsabilités : Gérer le cycle de vie de la livraison de la plateforme Définir le backlog et le processus de hiérarchisation des priorités Gérer les versions et le déploiement en production Suivre les performances et la fiabilité Gérer les risques et les problèmes techniques Livrables attendus : Feuille de route de la plateforme (court / moyen / long terme) Backlog produit et cadre de priorisation Plan de lancement et processus de gestion des versions Tableaux de bord de suivi des livraisons SLA de la plateforme / indicateurs de fiabilité Déploiement et adoption par les domaines métier Responsabilités : Déployer la plateforme dans l'ensemble des domaines métier Permettre aux équipes métier de créer des produits de données Mettre en œuvre le modèle opérationnel Data Mesh Accompagner l'intégration et l'adoption Résoudre les difficultés opérationnelles liées à l'adoption Résultats attendus : Cadre et processus d'intégration des domaines métier Directives relatives au cycle de vie des produits de données Guides de mise en œuvre pour les domaines métier Indicateurs d'adoption et d'utilisation Supports de formation et documentation d'intégration Documentation, normalisation et gouvernance Responsabilités : Documenter les capacités et les processus de la plateforme Veiller au respect de la gouvernance fédérée des données computationnelles du groupe Résultats attendus : Référentiel de documentation de la plateforme Normes techniques et directives de mise en œuvre Cadre de gouvernance et de conformité Guides des meilleures pratiques Communication opérationnelle et rapports à la direction Responsabilités : Communiquer sur l'avancement et l'impact de la plateforme Fournir des rapports destinés à la direction Assurer la coordination entre les parties prenantes Livrables attendus : Tableau de bord du projet destiné à la direction Tableaux de bord sur les performances de la plateforme Présentations au comité de pilotage Suivi des décisions, des risques et des problèmes Promotion interne et évangélisation Responsabilités : Promouvoir la valeur de la plateforme au sein de l'organisation Soutenir les initiatives d'adoption en interne Développer la communauté autour de la plateforme Livrables attendus : Supports de communication internes relatifs à la plateforme Stratégie d'adoption et plan de déploiement Démonstrations de la plateforme et recueil de cas d'utilisation
Mission freelance
Ingénieur réseau LAN/WIFI (H/F)
SPIE ICS
Publiée le
LAN
Network
WAN (Wide Area Network)
1 an
480 €
Île-de-France, France
Nous recherchons pour l'un de nos client un Ingénieur Réseau H/F , pour travailler au sein de l’équipe Réseau Workplace , Vous intègrerez une équipe BUILD qui a la responsabilité de la conception et de la mise en œuvre des infrastructures réseau des implantations des entités du groupe (environ 200 bâtiments en France et en Europe). Au sein de cette équipe, vous contribuerez à transformer les infrastructures réseaux Workplace en vous appuyant sur les dernières technologies du marché (Cisco FABRIC SDA, WIFI 6, SD-WAN…). Participer à la conception technique pour la mise en œuvre de ses infrastructures ou produits Intégrer et mettre en œuvre des solutions destinées à fournir le service réseau aux entités du groupe Réaliser l'installation des infrastructures, le paramétrage et la validation des composants Prendre en compte les règles et procédures d’exploitabilité des infrastructures Proposer des solutions d'optimisation des systèmes ou des plates formes Participer au maintien en condition opérationnelle et de sécurité des Infrastructures en apportant un support N3 aux équipes d'exploitation
Mission freelance
EXPERT SPARK DATA ENGINEER H/F
CELAD
Publiée le
1 an
500-600 €
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Mission freelance
EXPERT MIDDLEWARE - ETL & DATA STREAMING
Signe +
Publiée le
Java
12 mois
400-550 €
La Défense, Île-de-France
EXPERT MIDDLEWARE - ETL & DATA STREAMING Centre de competence Architecture et Integration - Group Digital and IT (Saint-Gobain) Contexte Mission au sein de l'equipe Architecture et Integration dans un environnement international et multiculturel. Pilotage des lignes de services integration ETL : Talend (Cloud / hybride) et Data Streaming (Kafka Confluent Cloud). Missions principales Support, suivi et maintenance de l'existant (CRM / Annuaire / PIM) Accompagnement a la creation de nouveaux projets : analyse du besoin, cadrage technique, conception des flux Pilotage de l'equipe en Inde (developpements, tests, deploiements) Gestion du plan de charge et des plannings Administration et suivi operationnel de la plateforme Talend et des composants On Prem Administration et suivi operationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation des deux plateformes Definition et partage des bonnes pratiques (configuration / developpements) Competences requises Talend Data Integration Studio V8 - Expert API et formats Json, Xml, Csv - Confirme Management d'equipe - Confirme Java 8+ - Confirme Linux / Unix - Confirme Kafka - Confirme SQL et Base de donnees - Confirme Source management (Gitlab) - Confirme Connaissances CRM Salesforce - Elementaire
Offre d'alternance
12 month apprenticeship – data science
█ █ █ █ █ █ █
Publiée le
Python
SQL
Lyon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Delivery Manager Data
VISIAN
Publiée le
Architecture
Big Data
Databricks
1 an
Paris, France
Contexte de la mission Le programme vise à doter le reporting financier de capacités de pilotage et d'analyse de la marge, de prévisions financières, de gestion du budget et des opérations de clôture. La solution s'appuie sur une plateforme Data centralisée agrégeant les flux provenant des systèmes de facturation, de pricing et de sourcing d'énergie. Le programme est structuré autour de trois familles d'équipes : 3 équipes en charge de la visualisation des chiffres et de l'expérience utilisateurs Contrôle de Gestion 2 équipes Data en charge de l'ingestion, de la transformation et de la qualité des données Une équipe Plateforme assurant la maintenance du socle technique, l'orchestration des traitements et leur monitoring La solution est aujourd'hui incomplètement industrialisée et un plan d'action visant à finaliser la mise en place des flux, à sécuriser les données, à consolider l'approche transverse bout-en-bout du programme et à assister les équipes dans leurs pratiques agiles est en cours. Le Delivery Manager est le pilote de ce Plan d'action en étroite collaboration avec la Direction de Programme Métier et les Data Providers.
Offre d'emploi
Ingénieur Système et Réseau – IGD
Ela Technology
Publiée le
Hadoop
6 mois
40k-45k €
400-500 €
Nancy, Grand Est
I. Contexte : Nous recherchons une personne ayant de l'expérience sur la gestion de plateforme bigdata dans un écosystème Hadoop. Le SI est composé très majoritairement de composants Opensource et le périmètre IGD (Infrastructure de Gestion de la Donnée) concerne principalement les composants permettant de stocker, échanger, transporter, transformer la donnée, à la fois technique et fonctionnelle. Contexte technique : 1500 Machine virtuelle II. Missions : Votre quotidien sera partagé entre : • Support N3 : traitement des incidents de production • Projets techniques : qualification et industrialisation des briques techniques • Gestion d’obsolescence : monter en version de Hadoop, cassandra, spark, kafka, vitess • Administration MySQL • Suivi des KPIs et mise en œuvre des actions correctives
Offre d'emploi
Ingénieur Réseau Linux Embarqué - Militaire H/F
VIVERIS
Publiée le
40k-45k €
Massy, Île-de-France
Contexte de la mission : Dans le cadre du développement de systèmes embarqués communicants pour le compte de l'un de nos clients dans le secteur du militaire, vous interviendrez sur la configuration et la validation des architectures réseau Linux intégrées dans les routeurs des sous-systèmes.Vous participerez à la mise en oeuvre des configurations réseau à partir des architectures techniques et contribuerez à la validation fonctionnelle des communications entre les différents sous-systèmes. Vos Responsabilités : - Configuration des interfaces réseau Linux ; - Mise en oeuvre du plan d'adressage IP ; - Configuration du routage et du forwarding IP ; - Mise en place de bridges réseau ; - Configuration de VLAN (IEEE 802.1Q) ; - Mise en oeuvre des règles de filtrage réseau avec iptables et Netfilter ; - Automatisation des configurations via scripting Bash ; - Participer aux activités de validation réseau (rédaction de plans de test réseau, test de connectivité,...) ; - Rédiger la documentation technique associée (spécification technique, documentation d'architecture réseau,...).
Offre d'emploi
Administrateur systèmes et réseaux H/F
Experis France
Publiée le
Villeneuve-d'Ascq, Hauts-de-France
Experis Lille recherche un Administrateur systèmes et réseaux H/F pour l'un de ses clients sur Villeneuve-d'Ascq. 🎯 Contexte du poste Au sein de l'équipe Infrastructure, vous prenez part à la gestion et à l'exploitation du système d'information couvrant environ 420 centres en France . Vous contribuez également à la réussite de projets IT stratégiques , liés à l'évolution des magasins, du siège et du Datacenter. Vous jouerez un rôle clé dans la fiabilité , la sécurité , et la performance de nos environnements techniques, tout en apportant un support de haut niveau à nos utilisateurs et partenaires internes. 🔧 Missions principales 1. Exploitation & Supervision Administrer les infrastructures systèmes, réseaux et mobiles. Superviser les solutions informatiques et les services critiques du Datacenter. Assurer le support technique Niveaux 1, 2 et 3 selon les besoins. Gérer et maintenir le parc informatique (postes, équipements réseaux…). 2. Gestion de projets IT Vous prenez en charge ou participez à plusieurs projets majeurs : Déploiement de solutions IT (Infra / Réseau / Mobile). Projet SDWAN Fortinet : gestion des ressources, du budget et de la facturation. Mise en place du VLAN partenaire . Ouverture de nouveaux concepts magasins. Déménagement du siège (pilotage des infrastructures). Mise en œuvre du PRA/PCA pour le Datacenter. Mise à niveau des procédures IT et des documentations. 3. Relation utilisateurs & partenaires Garantir un haut niveau de satisfaction des équipes internes. Assurer le suivi et la coordination avec les prestataires et partenaires techniques. Contribuer à l'intégration des nouveaux arrivants (formation, transfert de compétences).
Offre d'emploi
Data Engineer Teradata/Python/Hadoop/Unix
OBJECTWARE
Publiée le
Hadoop
Python
Teradata
3 ans
40k-70k €
400-550 €
Île-de-France, France
La tribu « CRM » est en charge du parc applicatif dédié à la mise en œuvre et au suivi de l’ensemble de la relation client-banque et des outils de conformité (fraude, lutte contre le blanchiment et financement du terrorisme). La mission consiste à assurer les fonctions suivantes au sein de la Squad Conformité et Sécurité Financière : • vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel (Teradata) • TPT • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Spark • HDFS • Python • Hadoop
Offre d'emploi
Technicien systèmes et réseaux
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
27k-28k €
Labège, Occitanie
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, l'activité Services en région Parisienne accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Au sein d'un grand groupe, vous rejoignez une équipe des administrateurs et ingénieurs infrastructures au sein d'une prestation d'infogérance de production. Vous participez au MCO et MCS de l'ensemble de l'infrastructures sous Windows et Linux, et intervenez sur l'amélioration de l'environnement technique par des missions de build. Vos responsabilités : • Installation, configuration et mise en service des postes de travail (PC fixes, portables, écrans, périphériques). • Déploiement et configuration des systèmes d'exploitation (Windows 10 / Windows 11 ). • Paramétrage des profils utilisateurs, droits d'accès et intégration au domaine Active Directory. • Installation et mise à jour des logiciels métiers et standards (pack Office, antivirus, VPN, outils internes). • Diagnostic et résolution des incidents matériels et logiciels liés au poste de travail. • Support de proximité (niveau 1 / 2) auprès des utilisateurs. • Gestion des tickets via un outil ITSM (incidents, demandes, changements). • Application des procédures et standards IT de l'entreprise. • Participation à la gestion du parc informatique (inventaire, renouvellement, suivi du matériel). • Sensibilisation des utilisateurs aux bonnes pratiques IT et sécurité. • Participation aux projets de renouvellement du parc informatique (ex : migration vers Windows 11 ). • Sauvegarde et restauration des données utilisateurs lors des migrations. Référence de l'offre : c9cq2cbrbu
Mission freelance
Data Integration specialist
Axande
Publiée le
GSAP
TIBCO
12 mois
520-650 €
Paris, France
RÔLE PRINCIPAL Le spécialiste en intégration de données interviendra spécifiquement sur un projet d’implémentation d’un système de gestion d’entrepôt (WMS – Manhattan en mode SaaS) au sein de l’écosystème client. Il rejoindra une équipe de 4 personnes et devra développer une expertise sur les interfaces existantes entre SAP ECC et les systèmes Manhattan, ainsi qu’entre SAP S/4 et Manhattan. Ces interfaces assurent des échanges bidirectionnels de données Supply (données de référence / commandes / livraisons, etc.) et utilisent différents formats (IDOC sur ECC – API OData / événements sur S/4 – fichiers JSON côté Manhattan). Le candidat devra donc être capable d’évoluer dans un environnement complexe, de comprendre la logique d’interfaces élaborées jusqu’au niveau du mapping de données, et d’assurer leur maintenance. Il pourra également être amené à configurer de manière autonome des flux de données au sein de l’ESB, ainsi qu’à former et accompagner les équipes de production. Le candidat devra aussi être en mesure de contribuer aux projets de migration dans le cadre du passage de SAP ECC vers SAP S/4, qui impacte directement le projet. Il devra faire preuve de rigueur et de précision dans la gestion documentaire, notamment pour le suivi des versions des développements mis en production (gestion de 3 environnements/zones). Le candidat sera responsable du suivi des activités avec les partenaires AMER et APAC (réunions hebdomadaires), de la remontée des points critiques, ainsi que de la mise en place et du suivi des plans d’action. Un intérêt pour la coordination et la gestion de projet est donc requis. Un esprit d’équipe et une volonté de partager les connaissances sont essentiels. Le candidat doit être capable de respecter des délais serrés, et un bon niveau d’anglais est indispensable, le projet étant mondial. Principaux enjeux du poste Recueillir et analyser les besoins métiers et clients afin de proposer des solutions techniques d’intégration Apporter de la valeur au métier en concevant le modèle d’intégration le plus adapté aux besoins Identifier et prioriser les opportunités d’amélioration des processus et de l’efficacité opérationnelle
Mission freelance
POT8985 - Un Lead Data Continuity sur Meudon
Almatek
Publiée le
Big Data
6 mois
400-550 €
Meudon, Île-de-France
Almatek recherche pour l'un de ses clients, un Lead Data Continuity sur Meudon. Objectif : Diagnostiquer les risques liés à la maturité et à la continuité des données Sécuriser les décisions clés de conception (KDD) Concevoir et contribuer au lancement d'un hub de continuité des données permanent Activités : Concevoir et déployer un cadre de maturité structuré Animer des ateliers multi-entités Réaliser des profils de données Élaborer des cartographies de maturité inter-groupes Identifier les risques systémiques Fournir une feuille de route de remédiation priorisée
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6317 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois