L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 227 résultats.
Offre d'emploi
Domain Lead Engineer - Expert Technique
Avanda
Publiée le
Lyon, Auvergne-Rhône-Alpes
Notre client est un grand acteur du secteur de l'énergie en France, engagé dans une transformation technologique ambitieuse. Dans ce cadre, il recherche un Domain Lead Engineer pour piloter la stratégie technique d'un département à grande échelle (~50 personnes). Véritable bras droit du CTO, le DLE est le garant de la cohérence architecturale, de la vision technique long terme et du lien entre stratégie globale et réalité terrain. Le poste est localise à Lyon, ouvert aux freelances. Démarrage janv. 27 En tant que Domain Lead Engineer, vos missions sont les suivantes : Décliner les orientations techniques du CTO à l'échelle du département Définir et maintenir la vision technique court, moyen et long terme Construire et piloter les roadmaps techniques structurantes Identifier en amont les risques techniques et zones de transformation Garantir la cohérence globale des architectures du département Définir et diffuser les standards, cadres et bonnes pratiques d'ingénierie Participer aux revues d'architecture et de code sur les sujets critiques Assurer l'adoption des standards via les Apps Leads et Lead Techs Être le point d'escalade technique pour les équipes sur les sujets complexes et multi-périmètres Remonter au CTO les difficultés techniques, organisationnelles et process Identifier des opportunités d'innovation à fort impact et favoriser l'expérimentation Diffuser la connaissance et les retours d'expérience au sein du département Requirements Profil recherché Minimum 15 ans d'expérience, avec un solide passé de développeur Minimum 6 ans de pilotage technique (50+ personnes) Très forte expertise technique full-stack, data engineering et architecture de SI complexes Maîtrise des technologies du département : Java, Spring, Angular, PostgreSQL, Kafka, Hadoop, Hive, Impala, PySpark, Spark (Java/Scala), Python, Databricks, PowerBI, Git/Gitlab, Kubernetes, Docker, Helm, Ansible, Grafana Capacité à adresser des problématiques de scalabilité, performance et architecture distribuée Vision bout-en-bout du SI (applications, infra, data, tests, sécurité, production) Capacité à fédérer des équipes aux intérêts parfois divergents Expérience en contexte cloud appréciée
Mission freelance
CHEF DE PROJET / SCRUM MASTER - JIRA, IA ( ANGLAIS IMPERATIF),
SKILL EXPERT
Publiée le
Agile Scrum
DevOps
Git
12 mois
450-500 €
Île-de-France, France
Descriptif de la mission : Client : Banque Lieu : IDF (92 - 93) Dispo : asap Exp : 15 ans minimum NB : Au moins une expérience en milieu bancaire Une expérience avérée en gestion de projet et en tant que Scrum Master de tribu dans un écosystème informatique complexe, dans le secteur des services financiers, est requise - Plus de 15 ans d’expérience. Expérience pratique des pipelines DEVOPS (Git, Jenkins, Focker, Kubernetes), du déploiement dans le cloud (DMZR ou similaire) Esprit Agile, bonnes compétences en communication, capacité à travailler en étroite collaboration avec les équipes métier et opérationnelles Maîtrise de l'anglais Des déplacements occasionnels sont à prévoir. Compétences métier : - Relations entre le métier et l'informatique (Maîtrise) - Comptabilité des fonds et services liés aux actifs (Expert) - Tests informatiques (Expert) - Connaissances en gestion d'actifs (Maîtrise) - Risques informatiques et cybersécurité (Maîtrise) - Architecture (Maîtrise) Compétences transversales : - Capacité à anticiper l'évolution métier/stratégique (Expert) - Capacité à développer les autres et à améliorer leurs compétences (Expert) - Capacité à développer et à adapter un processus (Expert) - Capacité à comprendre, expliquer et accompagner le changement (Expert) •? ?Capacité à gérer un projet (Expert) Langues : - Anglais (courant)
Offre d'emploi
Data Analyst Dataiku/Tableau/SAS
OBJECTWARE
Publiée le
Dataiku
SAS
Tableau software
3 ans
40k-83k €
400-610 €
Île-de-France, France
La mission consistera à fournir des analyses & reportings sur la qualité des données du client, sur les outils Dataiku et Tableau. Recueillir les expressions de besoin des Directions et organiser / animer les ateliers de cadrage avec les métiers • Réaliser la préparation des données sous Dataiku • Mettre à jour le dictionnaire de données/ Documentation • Développer en mode agile (sprint de 2 semaines, daily meeting, sprint planning, sprint review, retrospective, démonstrations,…) • Créer les dashboards sous Tableau • Organiser la recette avec les métiers • Appliquer les bonnes pratiques de l’équipe en matière de datapreparation/ datavisualisation • Effectuer la migration des projets sous SAS vers Dataiku
Offre d'emploi
Data Analyst Supply Chain - Alternance F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Microsoft Excel
SQL
69009, Lyon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Business analyst ERP / data
Pickmeup
Publiée le
Business Analyst
6 mois
500-650 €
Bordeaux, Nouvelle-Aquitaine
Dans le cadre d’un programme de transformation structurant, notre client lance un projet d’harmonisation de ses systèmes de gestion à l’échelle internationale, avec la mise en place d’un ERP Cloud unique. L’objectif est de standardiser les processus métiers et les outils sur plusieurs zones géographiques (Europe, Amérique du Nord, filiales internationales), couvrant notamment les fonctions industrielles, financières ainsi que les activités commerciales liées aux pièces et consommables. Au sein de l’équipe projet, vous intervenez en tant que Business Analyst et assurez le lien entre les équipes métiers et les équipes techniques. Vous contribuez directement à la bonne compréhension des besoins et à la qualité de leur mise en œuvre. Description du poste Cadrage et conception Analyser les processus existants et contribuer à la définition des processus cibles Participer aux ateliers avec les équipes métiers afin d’aligner les besoins avec les standards de la solution Challenger les pratiques actuelles pour favoriser l’adoption de solutions pérennes Recueil et formalisation des besoins Rédiger les spécifications fonctionnelles sous forme de user stories Structurer et prioriser les demandes en lien avec les parties prenantes Assurer la bonne compréhension des besoins par les équipes techniques Recette et validation Définir les scénarios de test et organiser les campagnes de recette Participer aux phases de tests (intégration et acceptation utilisateur) Suivre les anomalies et valider les correctifs Data et migration Contribuer aux travaux de reprise de données (analyse, mapping, nettoyage) Veiller à la qualité et à la cohérence des données migrées Coordination et accompagnement Assurer le rôle d’interface entre les équipes métiers et IT Suivre l’avancement des développements et communiquer auprès des parties prenantes Accompagner les utilisateurs dans la conduite du changement Support et documentation Participer au support fonctionnel de premier niveau Maintenir une documentation projet claire et à jour Livrables attendus Backlog fonctionnel (user stories, règles de gestion, mapping) Plans de test et cahiers de recette Dossiers d’arbitrage pour les évolutions Documentation projet structurée Langues Anglais professionnel requis Qualités Bon relationnel et sens de la communication Capacité à synthétiser et vulgariser Rigueur et sens de l’organisation Esprit d’équipe
Offre d'emploi
Annonce – Expert Détection & Surveillance Cybersécurité (SOC) – Nantes
DATACORP
Publiée le
AIX (Advanced Interactive eXecutive)
Cisco
Linux
3 ans
Nantes, Pays de la Loire
Dans le cadre d’un renforcement d’équipe, nous recherchons un expert en détection et surveillance cybersécurité pour intervenir au sein d’un SOC en charge de la supervision et de la réponse aux incidents de sécurité d’un système d’information étendu. Missions Au sein de l’équipe SOC, vous interviendrez notamment sur : L’amélioration continue de la surveillance cybersécurité sur de nouveaux périmètres techniques (datacenter, infrastructures systèmes et réseaux) La conception, le développement et le déploiement de règles de détection au sein d’un SIEM, ainsi que la documentation associée (scénarios, procédures d’investigation) La définition des événements à journaliser et leur format pour exploitation La mise en place et le suivi de scénarios de détection (tests, validation, recettes) La participation à la veille cybersécurité en lien avec les experts techniques La préparation, coordination et restitution de tests d’intrusion (pentests) L’analyse et la gestion des incidents de sécurité en collaboration avec les équipes SOC L’accompagnement des équipes opérationnelles (N1/N2/N3) et contribution à leur montée en compétences La définition et le déploiement de workflows d’automatisation au sein d’outils SOAR Livrables attendus Mise en œuvre et amélioration de solutions de détection et de réponse aux incidents Documentation des processus et scénarios de détection Contribution à la veille, aux exercices de gestion d’incident et à l’amélioration continue Informations complémentaires Localisation : Nantes Démarrage : à convenir Délai de réponse souhaité : avant le 05/05 Environnement à forte valeur ajoutée technique, avec une bonne dynamique de collaboration Si cette opportunité correspond à votre expertise, n’hésitez pas à vous positionner rapidement.
Offre d'emploi
Expert NeoXam DataHub
Taleo Capital
Publiée le
ETL (Extract-transform-load)
SQL
6 mois
70k-80k €
600-800 €
Île-de-France, France
Contexte Dans le cadre de projets de transformation data au sein d’acteurs de la gestion d’actifs, banque ou assurance, nous recherchons un expert NeoXam DataHub capable d’intervenir sur des problématiques de gestion, de qualité et de distribution de la donnée. Responsabilités : Implémentation et paramétrage de NeoXam DataHub Modélisation des données (référentiels titres, pricing, instruments financiers…) Intégration des flux de données (market data, référentiels internes/externes) Mise en place de règles de qualité de données (contrôles, normalisation, validation) Développement des mappings et workflows dans DataHub Gestion des interfaces avec les systèmes amont/aval (front, middle, back office) Optimisation des performances et maintenance de la plateforme Participation aux phases de recette (UAT) et support aux utilisateurs Rédaction de documentation fonctionnelle et technique Accompagnement des équipes métiers (asset management, risk, reporting)
Mission freelance
Consultant Power BI/Azure Data Factory
OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI
1 an
450-500 €
Paris, France
BESOIN URGENT !!! Dans le cadre d’un projet de transformation data, notre client recherche un consultant data orienté BI et data engineering. Secteur immobilier. Missions Développement et maintenance de pipelines avec Azure Data Factory Modélisation de données pour les besoins analytiques Création de dashboards Power BI (DAX, performance) Amélioration de la qualité et des flux de données Participation à l’industrialisation (CI/CD, DevOps) Interaction avec les équipes métiers Profil recherché 3 à 5 ans d’expérience en Data Engineering / BI Très bonne maîtrise d’Azure Data Factory Bonne maîtrise de Power BI (modélisation, DAX) Connaissance des environnements DevOps Autonomie et bon relationnel
Mission freelance
DATA Analyst SAP BO
ARGANA CONSULTING CORP LLP
Publiée le
Business Object
IDT
Microsoft Power BI
12 mois
400-450 €
Île-de-France, France
Mission Le consultant BO interviendra sur : La modélisation et le développement d’univers SAP BO. La création et la maintenance de rapports Web Intelligence 4.3. La génération de rapports complexes multi-sources et multi-pages. Le support aux utilisateurs et aux métiers pour la formation et la montée en compétence sur BO. Livrables principaux : Univers BO Rapports BO Tableaux de bord et Data visualisations métiers Présentations d’indicateurs de performance Durée de mise en opération rapide : Capable d’être opérationnel sous 2 semaines. Compétences techniques requises SAP Business Objects 4.3 (Designer, IDT/UDT) – Confirmé – Impératif Modélisation d’univers – Confirmé – Impératif SQL – Confirmé – Souhaitable Web Intelligence 4.3 – Confirmé Connaissance CMC et Power BI – Plus Profil recherché Formation : Bac +5 Expérience : Minimum 5 ans sur SAP BO et modélisation d’univers Soft skills : Capacité à s’intégrer rapidement à une équipe BI et à devenir opérationnel rapidement. Positionnement : Auprès des Métiers, de la DSI ou dans un pôle Data transverse. Responsabilités : Identifier les données pertinentes à partir des exigences métiers Définir la logique de génération d’indicateurs Concevoir les tableaux de bord nécessaires à la restitution Assurer la production d’indicateurs et supports de décision
Offre d'emploi
Data Designer
CAT-AMANIA
Publiée le
Confluence
Île-de-France, France
Le Data Designer : • sera rattaché au Shared service Data Office • interviendra dans les trains SAFe, pour représenter la composante Data dans le rôle System Architect du train ; Il travaillera avec deux autres architectes (technique & fonctionnel) pour accompagner les équipes agiles. • pourra intervenir sur des sujets transverses, dans le Shared service Data Office Requis • Connaissance des principes de modélisation (UML, Merise, etc) • Connaissance de la gouvernance des données • Connaissance architecture Datacentric • Connaissance Event Driven Architecture • Bonne connaissance du monde bancaire • Capacité à mener des interviews, et à coordonner des contributeurs • Capacité à travailler en mode agile Souhaité : • Connaissance de la modélisation des processus
Mission freelance
Data Analyst (Snowflake - Power BI - SQL)
Cherry Pick
Publiée le
Microsoft Power BI
Snowflake
SQL
12 mois
500-580 €
Paris, France
Contexte de la Mission Dans le cadre de sa transition BI et de l’harmonisation de ses outils de pilotage, l’entreprise recherche un Data Analyst Confirmé pour renforcer ses équipes. La mission s'inscrit dans une volonté d'industrialiser, d'uniformiser et d'automatiser les données ainsi que les rapports de suivi, notamment pour le pilotage de la DNV. Durée : 8 mois (de mai à décembre 2026). Équipe : Intégration d'une squad au sein de l'équipe Data Analyst, aux côtés de deux Data Analysts déjà en poste sur ce domaine. Localisation : Poste basé à Antony Télétravail : 1 jour fixe par semaine Missions Principales Le consultant sera chargé de transformer la donnée brute en produits data exploitables pour les directions métiers (Sales/Business) : Architecture de données : Conception de datamarts sur des vues complexes et migration de l’ensemble des datasets/dataflows existants vers ces nouveaux datamarts. Normalisation : Nettoyage et normalisation des données sources, principalement issues de Salesforce, pour garantir la cohérence du catalogue de données. Dataviz & Pilotage : Conception, mise à jour et diffusion de tableaux de bord sous Power BI pour le pilotage de l'activité business. Optimisation : Industrialisation et automatisation de rapports manuels ou existants.
Offre d'emploi
Data Engineer
VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop
1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Mission freelance
Data Engineer (H/F)
Trust IT
Publiée le
Bash
Cloudera
DevOps
1 an
450-510 €
Charenton-le-Pont, Île-de-France
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons pour notre client, un Data Engineer (H/F) Contexte : Des tâches quotidiennes liées au maintien de la production en condition opérationnelle. Vos interlocuteurs privilégiés seront les équipes de production applicative, les équipes infrastructures, les plateformes internationales, mais également les équipes métiers pour lesquelles vous apporterez votre support et votre expertise technique. Missions : Conception et mise en œuvre de l'ingestion et du stockage de données : Identifier et formaliser les besoins des métiers en matière de collecte et de stockage de données. Développer des solutions d'acquisition de données via API. Concevoir et implémenter des architectures de stockage de données robustes (Ex: Ozone, Hadoop, Druid, Clickhouse…). Valider la qualité des développements par des tests unitaires et d'intégration. Automatiser les traitements de données via la mise en place et la maintenance de batch. Valorisation et sécurisation des données : Industrialiser les processus de nettoyage et de transformation des données. Gérer et documenter des bases de données hétérogènes, en intégrant diverses sources de données. Veiller à la conformité RGPD dans la gestion du cycle de vie des données. Superviser l'exploitation et assurer la maintenance corrective et évolutive des systèmes de données. Intégration et suivi des modèles prédictifs : Industrialiser le déploiement de modèles statistiques et de machine learning. Mettre en place des dispositifs de validation et de monitoring des modèles. Assurer le suivi opérationnel et la maintenance des modèles intégrés aux applications. Contribution au pilotage projet : Définir les spécifications techniques précises en appui de l'analyse des besoins. Environnement technique : Les composants basés sur le logiciel de l’éditeur Cloudera CDP 7.1 :Hbase, Hive, Kafka, Solr, Knox, Spark,Ranger, Zookeeper, Kerberos LDAP... •Être force de proposition sur les évolutions techniques du périmètre Data avec la nouvelle offre containérisée : Cloudera Data Services (Infra Openshift K8s) •Contribuer à l'élaboration et à l'exécution des stratégies de migration des clusters Hadoop Cloudera. •Aisance avec l’écosystème Apache (Outils OpenSource),Build (Java, Maven, Gradle...), Automatisation avec Ansible •Connaissance Trino/Starburst, AirFlow, Flink •Participer à la résolution de problèmes complexes sur les plateformes Data (Capacité d’analysedes incidents applicatif de type Hive, Yarn, Spark...) •Apporter un support quotidien aux équipes applicatives et métiers dans leurs études de cas d’usage, leurs problématiques de développement ou de montée en charge. •Le poste est soumis à astreintes et interventions hors périodes ouvrées par rotation .Couverture horaire de l’équipe : 8h/19h
Mission freelance
AMOA IA
Codezys
Publiée le
Data science
Formation
IA Générative
12 mois
Nantes, Pays de la Loire
Contexte de la mission Ce profil senior jouera un rôle stratégique et opérationnel en tant que pont entre l’ Intelligence Artificielle (IA) Fet et les Directions métiers , afin d’assurer une coordination efficace avec les Services Support concernés. Détection et Cadrage Accélérer l’identification des besoins métiers et repérer les opportunités de projets IA à forte valeur ajoutée, en vue de les relayer à l’ IA Factory . Acculturation Sensibiliser et former les Chefs de Projet (CP) et Product Owners (PO) des directions opérationnelles aux enjeux et aux capacités de l’IA. Accompagnement Opérationnel Soutenir et sécuriser le développement ainsi que le déploiement des solutions IA au sein des équipes concernées. Levée de Freins Identifier les obstacles à l’appropriation des outils IA par les utilisateurs finaux et proposer des plans d’action correctifs adaptés. Synergies et Collaboration Favoriser le développement de synergies efficaces entre l’ IA Factory et les directions opérationnelles afin de maximiser la performance collective. Production de Documents Rédiger des études d’opportunités, élaborer des schémas fonctionnels, concevoir des solutions technologiques, rédiger des cahiers des charges, et préparer des comptes rendus synthétiques.
Offre d'emploi
Consultant Juriste Confirmé Data Privacy-RGPD
KEONI CONSULTING
Publiée le
Big Data
Gestion de projet
RGPD
18 mois
20k-60k €
100-450 €
Toulouse, Occitanie
Contexte Recherche en Droit Numérique MISSIONS - Assister et conseiller les chefs de projets Informatiques dans l'identification des données à caractères personnelles, des traitements associés, documenter les livrables RGPD selon la méthodologie CNIL en lien avec l'expert Sécurité des Systèmes d'Information dans le respect de la méthode Groupe, définir et recetter les exigences, identifier / évaluer les risques en matière de protection des données et proposer des actions de remédiation. - rédiger les AIPD /PIA en lien avec les Métiers et les DPO concernés, les filières Juridiques/Achat, Conformité du Groupe mais également pour - Contribuer à la sensibilisation des collaborateurs au quotidien en matière de Privacy (RGPD, Cookies et Traceurs, usages Data et IA...) des systèmes d'information. - Effectuer une veille en matière de Protection des données - Assurer le support en cas de violations de données, demandes de la CNIL et d'exercices de droits et en assurer le support auprès des plateformes Métiers et en lien avec la Direction Protection des Données du Groupe Vous êtes autonome rigoureux, pédagogue, communicant, dynamique et proactif. Expertises spécifiques : Compétences Juridiques Requises / Certification DPO CNIL indispensable Compétences informatiques : MOOC ANSSI, Architecture des SI, Iso 27001/27005/27701 Connaissances des métiers Banque et Assurances requises Connaissances Méthode Projet Agile
Mission freelance
Data Scientist (Modélisation statistique, reinforcement learning)-(h/f)
emagine Consulting SARL
Publiée le
36 mois
500-650 €
95700, Roissy-en-France, Île-de-France
Le poste de Data Scientist se concentre sur la modélisation statistique et l'apprentissage par renforcement, visant à renforcer une équipe déjà existante avec un expert capable de concevoir des modèles prédictifs tout en étant capable de contribuer à des mises en production. Responsabilités : Développer et affiner des modèles statistiques pour améliorer la prise de décision. Appliquer des techniques d'apprentissage par renforcement dans des projets d'optimisation. Collaborer avec les équipes de production pour mettre en place des modèles efficaces. Utiliser des outils de data science pour générer des insights à partir des données. Communiquer clairement les résultats de la modélisation aux parties prenantes. Must Have : Expérience significative en modélisation statistique. Expérience avec des moteurs de recommandation. Apprentissage par renforcement (reinforcement learning) Maîtrise de l'anglais. ( entretien en anglais ) Nice to Have : Connaissances en systèmes basés sur le cloud, en particulier GCP. Compétences en industrialisation de modèles. Solides compétences en data science et machine learning. Thèse de doctorat (PhD) en domaine pertinent. Autres détails : Urgence : ASAP. Lieu de travail : Roissy , 95700 Télétravail : 3 jours par semaine, 2 jours sur site
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3227 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois