L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 984 résultats.
Mission freelance
Administrateur Systèmes et Réseaux (H/F) - 49
Mindquest
Publiée le
Support informatique
6 mois
Angers, Pays de la Loire
Au sein de la Direction des Systèmes d’Information, nous recherchons un(e) Administrateur Système et Réseaux. L’objectif de cette mission est de renforcer le support réseau Niveau 2 des infrastructures WAN/LAN/Wi-Fi, ainsi que de contribuer à la structuration de chaînes de diagnostic réseau et de la base de connaissances associée. • Administrer et exploiter l’ensemble des infrastructures du système d’information : serveurs, bases de données, stockage et réseau. • Piloter les prestataires qui interviennent sur le périmètre (matériels ou logiciels). • Contribuer à l’étude, la conception et le déploiement des nouvelles architectures applicatives. • Proposer et participer à l’urbanisation du système d’information : API, Bus d’échanges de données. • Gérer les incidents de production, les mises en production, les demandes utilisateurs. • Communiquer vers les utilisateurs dans le cadre du traitement de leurs demandes. • Participer à la rédaction de la base de connaissance (dossiers d’exploitation, dossiers d’architecture, procédures …).
Offre d'emploi
Data Scientist
ANDEMA
Publiée le
Databricks
PySpark
Python
12 mois
55k-65k €
400-500 €
Lille, Hauts-de-France
Contexte Entreprise en forte croissance , avec un volume d’activité soutenu et de nombreux projets data en cours et à venir. Dans ce cadre, nous recherchons un(e) Data Scientist pour compléter l’équipe existante et contribuer activement au développement de nouveaux sujets stratégiques. Modalité : Pré-embauche (PE) Possibilité d’intervenir en freelance pendant la période de pré-embauche , avec une volonté forte d’internalisation à l’issue du process. Votre mission Vous rejoindrez une équipe data dynamique avec pour objectif : Prendre en main de nombreux sujets variés Construire, tester, industrialiser des modèles et analyses Travailler en étroite collaboration avec les équipes métiers Participer à la structuration et à la montée en maturité data de l’entreprise Contribuer à des problématiques de mesure de performance, campagnes marketing, retail média , etc. Ici, pas de silo : vous serez exposé(e) à des problématiques multiples et stimulantes. Nous recherchons donc des candidats passionnés et polyvalents. Stack technique Python (obligatoire) PySpark (obligatoire) Databricks Environnements data modernes orientés cloud Pourquoi nous rejoindre ? - Entreprise en forte croissance - Projets variés et concrets - Forte exposition business - Possibilité d’évolution rapide - Environnement agile et stimulant Si vous aimez la diversité des sujets, l’impact business et les environnements en croissance, cette opportunité est faite pour vous
Offre d'emploi
data scientist, concepteur-développeur bi F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Deep Learning
DevOps
Docker
Croissy-Beaubourg, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Consultant Data & Reporting - Cash Management
NOVAMINDS
Publiée le
Business Analyst
Data management
4 mois
550-650 €
Paris, France
Objectif de la mission · Collecter, produire et valider les données requises afin de réaliser l’ensemble du reporting interne. · Assurer une gestion centralisée de la disponibilité et de la fiabilité des données, dans les délais, pour permettre la livraison du reporting. Prestations demandées · Coordonner avec différentes équipes de reporting et autres parties prenantes (IT, métiers) afin d’intégrer les exigences réglementaires dans le reporting. · Revoir les processus de reporting existants, identifier des opportunités d’amélioration de l’organisation opérationnelle et mettre en œuvre les changements. · Partager et former les équipes de production de reporting aux nouvelles solutions de reporting conçues. · Revoir et piloter le reporting des KPI, garantir les niveaux de service/qualité, et reporter aux parties prenantes via différents comités. · Interagir avec différentes équipes.
Mission freelance
Business Analysts expérimentés sur Workday
Codezys
Publiée le
Business Analysis
Data management
Formation
12 mois
Paris, France
Contexte du projet : Dans le cadre du déploiement international de Workday, SAUR met en œuvre un programme de transformation de son SIRH couvrant environ 20 pays et 12 000 collaborateurs. Ce projet vise à harmoniser, sécuriser et optimiser les processus RH à l’échelle mondiale. Besoins en renfort : Renforcer l’équipe centrale SIRH en intégrant deux Business Analysts expérimentés sur Workday, capables d’intervenir sur les aspects fonctionnels, la configuration et la coordination avec les équipes RH locales. Assurer une assistance opérationnelle auprès de plusieurs filiales pour accompagner l’appropriation de Workday, garantir la qualité des données et des processus RH, et faire le lien entre les besoins métiers locaux et l’équipe centrale. Contexte organisationnel : L’équipe centrale SIRH se compose actuellement de trois personnes intervenant partiellement sur le sujet, ainsi que d’un lead change dédié à la communication. L’ajout de ces consultants est nécessaire pour accompagner efficacement le déploiement dans un contexte sensible et international. Objectifs et livrables : Coordination avec les équipes RH locales : identifier les rôles et responsabilités, comprendre les processus spécifiques à chaque pays, accompagner l’adoption de Workday, et soutenir la gestion des tickets pour assurer un support structuré et harmonisé. Support fonctionnel et optimisation : analyser les problématiques rencontrées, proposer des améliorations métier, et contribuer à la configuration des modules Workday, notamment sur le Core RH et les instances adaptées aux besoins locaux. Gestion de la qualité des données : vérifier, améliorer la cohérence et la fiabilité des informations RH intégrées dans Workday. Formation et accompagnement : former les équipes locales, identifier les points de blocage, et proposer des plans d’action pour faciliter l’utilisation de la plateforme, tout en diffusant efficacement les communications liées au programme.
Offre d'emploi
Data Engineer
Recrut Info
Publiée le
AWS Cloud
Data Lake
Python
45k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Head of Data, vous participerez aux développements de la plateforme data. Dans un contexte cloud-first (AWS), vos principales missions seront les suivantes : - Concevoir, déployer et maintenir des systèmes de données résilients, sécurisés et scalables : bases de données, data warehouses, data lakes, traitements batch et temps réel, flux d’ingestion et transformations de données. - Développer, industrialiser et superviser des pipelines de données de type ETL/ELT. - Garantir la structuration, la qualité et la bonne gouvernance des données au sein des différents environnements de stockage. - Mettre en œuvre des solutions de Business Intelligence et de data visualisation telles que Power BI, afin de faciliter l’analyse et la prise de décision. - Répondre aux besoins de mise à disposition des données, de mise en production des modèles et d’optimisation des performances. - Concevoir et déployer des solutions d’exposition de la donnée via des API internes et externes. - Contribuer à la mise en œuvre de projets IA sur différents piliers métiers et business. - Sécuriser les architectures techniques et les échanges entre services en appliquant les meilleures pratiques de sécurité : IAM, gestion des habilitations, principe du least privilege, etc. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité)
Offre d'emploi
Ingénieur DevOps – Plateforme Data H/F
DSI group
Publiée le
Azure Data Factory
Azure DevOps
45k-55k €
Lyon, Auvergne-Rhône-Alpes
Missions principales: Déploiement et automatisation Concevoir, mettre en place et faire évoluer les outils de déploiement continu (CI/CD) pour les applications et traitements de données. Automatiser les processus d’intégration, de livraison et de déploiement des solutions analytiques. Maintenir les pipelines CI/CD et garantir leur fiabilité. Gestion de l’infrastructure Administrer et faire évoluer les infrastructures Linux supportant les plateformes analytiques. Maintenir les composants middleware, bases de données et outils techniques . Anticiper et gérer les problématiques liées à l’obsolescence, la sécurité et les évolutions fonctionnelles . Collaboration avec le SI Collaborer avec les différents acteurs du système d’information : Développeurs Architectes Équipes sécurité Équipes d’exploitation S’assurer de la conformité des solutions avec les standards et l’architecture de l’entreprise . Documentation et bonnes pratiques Rédiger et maintenir la documentation technique et opérationnelle . Formaliser les procédures liées aux déploiements et à l’exploitation. Travail d’équipe Participer aux cérémonies agiles et aux activités de l’équipe . Contribuer à l’amélioration continue des pratiques DevOps. Activités secondaires Étudier les évolutions de la plateforme data dans le cadre de la transformation du SI DATA (Cloud / On-Premise). Participer à la définition des solutions permettant d’assurer la continuité des activités analytiques dans un nouveau contexte DSI . Accompagner les équipes data dans l’adaptation aux nouveaux environnements technologiques.
Offre d'emploi
Responsable CDS / Consultant Systèmes & Réseaux
AVA6
Publiée le
45k-55k €
Limonest, Auvergne-Rhône-Alpes
Tes missions majeures chez AVA6 : - Piloter et traiter la gestion des incidents et des demandes de service jusqu'à leur clôture et l'exécution des demandes après les avoir qualifiées auprès de l'utilisateur. - Coordonner et organiser les actions de notre équipe d'astreinte 24/7 externalisée - Faire le point régulièrement avec le référent astreinte pour suivre les dossiers - Gérer et organiser le planning de l'équipe d'astreinte - Escalader vers les autres services et fournisseurs (Tiers). - S'assurer de la clôture de l'incident ou de la demande. Tes missions complémentaires : - Représenter et développer le service d'astreinte (Gestion de l'équipe, participation active au recrutement, formation de l'équipe) - Participation à la création d'offre de services - La supervision/Monitoring : une surveillance proactive des systèmes : - La réalisation et le suivi des tâches d'exploitation pour nos services managés : - Rendre compte et documenter - S'assurer et mettre en oeuvre d'une amélioration continue du service délivré
Mission freelance
Data Engineer Informatica Talend Power B.I SQL (F/H)
CELAD
Publiée le
Big Data
Informatica
Microsoft Power BI
12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Data Engineer – Plateforme Epargne Financière pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Sécuriser la gestion de l’actualisation de l’offre Epargne Financière en lien avec les équipes partenaires distributeurs et producteurs. - Faire évoluer la solution en respectant les standards à jour : implémentation de changements à valeur ajoutée pour le business et traitement de la dette technique. - Contribuer à la gestion du RUN et renforcer la robustesse de la solution. - Renforcer la supervision et la qualité des données.
Offre d'emploi
Consultant IAM / Zero Trust – Audit & Rationalisation Okta
RIDCHA DATA
Publiée le
IAM
MFA
okta
1 an
Île-de-France, France
🎯 Contexte Dans le cadre d’une stratégie Zero Trust à grande échelle (BYOD / BYOL et remplacement du VPN), la mission consiste à faire évoluer et rationaliser l’architecture d’authentification ainsi que les processus de gestion des identités. La prestation est structurée en 2 lots : Lot 1 : Études & rationalisation architecture IAM Lot 2 (optionnel) : Continuité de service & bascule IDP 🛠️ Missions principales🔹 Lot 1 – Études & optimisation Rationalisation de l’architecture d’authentification (Okta / Zscaler ZIA & ZPA) Étude du provisioning utilisateurs (SCIM ou autre mécanisme) Simplification des règles d’éligibilité aux solutions d’accès sécurisé Industrialisation et déploiement de FastPass sur postes Windows & MacOS Intégration d’applications filiales dans l’écosystème Okta Participation aux rituels Agile 🔹 Lot 2 – Continuité & sécurisation Définition d’une procédure de bascule vers un autre IDP en cas d’indisponibilité prolongée Documentation des scénarios de continuité d’activité 📦 Livrables attendus Mise à jour du document de conception de la politique Zero Trust Plan de communication pour le déploiement global d’Okta Verify Documentation des changements de configuration Okta & écosystème Procédure de bascule IDP (PRA / continuité de service) Comptes rendus d’avancement réguliers ⚙️ Compétences techniques Impératif : Expertise IAM (Identity & Access Management) MFA & solutions d’authentification Okta (architecture, provisioning, intégration applicative) Protocoles SAML, OAuth2, OpenID Connect Important : Zscaler (ZIA / ZPA) SCIM Gouvernance des identités (IGA) Environnements Zero Trust
Mission freelance
Data Engineer Python / Azure Cloud (H/F)
Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)
12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Offre d'emploi
Data Scientist Generative IA (4jrs TT) sur 92
EterniTech
Publiée le
Data science
IA Générative
Pytorch
3 mois
Hauts-de-Seine, France
Je recherche pour un de mes clients un Data Scientist Generative IA avec 4 jours TT sur 92 VOTRE MISSION** * Concevoir et industrialiser des solutions d’IA Générative (LLMs, Agents, RAG) répondant aux besoins des AI Catalysts, priorisés par le PO. * Intégrer les composants GenAI à l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de coûts. * Définir et implémenter les architectures techniques : choix de modèles, orchestration d’agents, conception RAG, gestion des sessions. * Développer et maintenir le code (principalement Python) et les briques réutilisables (librairies de prompts, agents). * Industrialiser le déploiement : conteneurisation (Docker), Kubernetes, CI/CD, Infrastructure as Code (Terraform), et monitoring. * Mettre en œuvre des pratiques MLOps : suivi des expériences, versioning de modèles, tests de régression, validations en pré-prod. * Assurer la qualité et l’observabilité : métriques de performance, tests adversariaux, suivi des dégradations en production. * Collaborer avec le PO, le Software Engineer, les AI Catalysts et la DSI pour garantir la sécurité et l’adoption des solutions. * Contribuer à la documentation, aux templates et à la formation des équipes internes. *VOTRE PROFIL * Bac +3 à Bac +5 en informatique, data science ou équivalent. * 3 à 5 ans d’expérience en développement d’applications utilisant l’IA, avec un accent sur l’IA Générative (Agents, RAG, LLMs). * Maîtrise de Python et des bibliothèques ML/IA (PyTorch, Transformers). * Connaissances des frameworks GenAI : LangChain, LangGraph, LangFuse, et des moteurs de recherche sémantique (Qdrant, Milvus). * Compétences en architecture cloud Azure (AI Foundry, AKS, WebApp) et en conteneurisation/orchestration (Docker, Kubernetes). * Familiarité avec CI/CD et Infrastructure as Code (Terraform). * Sensibilité aux enjeux de cybersécurité et de conformité. * Rigueur dans l’ingénierie logicielle : tests, documentation et automatisation des pipelines. * Capacité à travailler en équipe et à vulgariser les concepts techniques. * Anglais professionnel (lu/écrit) ; français courant indispensable. Définition du profil DATA SCIENTIST: - En charge du développement d'algorithmes (Machine Learning et Intelligence Artificielle) pour créer de la valeur métier à partir de données (structurées, non structurées, vidéos, images, etc.). - Doit comprendre les demandes de l'entreprise et les challenger pour fournir la meilleure réponse possible. - Apporte un support à la décision sur d'éventuelles innovations, l'amélioration des performances et décisions relatives au service client. - Industrialise les projets de Data Science avec les Data Engineers. - Maintient et documente les algorithmes industrialisés (selon les rôles et les responsabilités définis par le projet).
Offre d'emploi
Data Quality Analyst / Analyste Qualité des Données
AEROW
Publiée le
Microsoft Excel
Python
SAP ECC6
6 mois
40k-42k €
400 €
Liège, Belgique
La qualité des données constitue un prérequis essentiel à l’exploitation efficace de ces nouveaux outils et à la réalisation des bénéfices attendus. Dans ce contexte, le Data Quality Analyst joue un rôle central dans l’amélioration continue des données clés, dans le cadre de la gouvernance de données mise en place chez RESA. Le poste est rattaché au coordinateur de l’équipe AI & Data Governance , qui apporte le support et l’alignement stratégique nécessaires. Garantir, améliorer et pérenniser la qualité des données critiques utilisées par les solutions Smart Grid et Data & AI, afin de soutenir les enjeux métiers et stratégiques de RESA. Responsabilités Détecter de manière proactive les problèmes de qualité des données Analyser et qualifier les anomalies de données Réaliser des analyses de causes racines (Root Cause Analysis) afin d’identifier l’origine des problèmes Proposer et recommander des pistes de résolution adaptées et durables Documenter les règles de qualité des données, les résultats des contrôles et le suivi des écarts Mettre en œuvre ou contribuer aux actions correctrices en collaboration avec les équipes concernées Former et sensibiliser les producteurs de données aux bonnes pratiques de gestion de la qualité des données Contribuer à l’instauration d’une culture de la qualité de la donnée au sein de l’organisation Participer à la gouvernance des données et à l’amélioration continue des processus associés Assurer une veille technologique sur les outils et pratiques liés à la qualité des données
Mission freelance
Administrateur Systèmes & Réseaux Linux (H/F)
Link Consulting
Publiée le
Centreon
Firewall
GLPI
12 mois
350-400 €
31860, Pins-Justaret, Occitanie
Notre client, acteur technologique spécialisé dans les solutions informatiques et les infrastructures systèmes, recherche son futur Administrateur Systèmes & Réseaux Linux (H/F) afin de renforcer ses équipes techniques. Vos missions : Intégré à une équipe technique spécialisée en infrastructures et virtualisation, vous interviendrez sur la conception, le déploiement et le maintien en conditions opérationnelles d’environnements systèmes. À ce titre, vous serez notamment amené à : * Concevoir l’architecture technique des systèmes à partir des besoins et cahiers des charges clients * Définir l’intégration des infrastructures dans les environnements réseaux en tenant compte des enjeux de sécurité, de redondance et de sauvegarde * Déployer et configurer des machines virtuelles Linux sur des environnements VMware ou Proxmox * Participer aux phases de tests, validation et mise en production des solutions déployées * Rédiger les documentations techniques (architecture, exploitation, maintenance) * Mettre en place et maintenir les outils de supervision et de monitoring * Assurer le support et la maintenance de niveau 3 des infrastructures systèmes Les compétences techniques * Linux (RedHat, CentOS, Debian, Oracle Linux…) * Virtualisation : VMware, Proxmox * Bases de données : PostgreSQL * Outils de haute disponibilité / clustering : DRBD, Pacemaker * Outils de supervision : Centreon * Outils ITSM : GLPI * Réseaux et sécurité : VPN, firewall, architecture réseau
Mission freelance
Responsable / Chef de Projet Gouvernance Data
ALLEGIS GROUP
Publiée le
Data governance
3 ans
400-570 €
Niort, Nouvelle-Aquitaine
Responsabilités 1. Gouvernance & Stratégie Construire, formaliser et déployer le cadre de gouvernance Data : normes, qualité, sécurité, rôles, catalogues, bonnes pratiques. Définir et animer les trajectoires Data (organisationnelles, techniques, qualité). Contribuer à la structuration des besoins Data pour l’ensemble des projets du périmètre (≈ 16 collaborateurs / 30 projets). Assurer la cohérence globale des initiatives Data en lien avec les équipes métiers et techniques. 2. Pilotage Data Suivre l’avancement des actions Data, dont les jalons clés (ex. J+15). Instaurer un pilotage robuste : reporting régulier, gestion des risques, consolidation des indicateurs. Participer au développement de la culture Data au sein de l’organisation. 3. Gestion de Projet Recueillir, structurer et prioriser les demandes Data . Coordonner les parties prenantes internes et externes (prestataires, métiers, IT). Garantir la qualité , la cohérence et la complétude des livrables Data (modèles, règles, dictionnaires, contrôles…). 4. Management Fonctionnel Animer la communauté Data et participer à la structuration des rôles (Data Owners, Data Stewards…). Superviser le périmètre opérationnel (~16 personnes). Intervenir à la fois sur le stratégique (vision, trajectoires) et l’ opérationnel (suivi, arbitrages, priorisation).
Mission freelance
Consultant – Data Monetization & Snowflake Pricing Strategy
Mon Consultant Indépendant
Publiée le
Data analysis
IA
1 mois
1 050-1 090 €
Courbevoie, Île-de-France
Consultant – Data Monetization & Snowflake Pricing Strategy Mission freelance Contexte : Un éditeur logiciel développe une offre de data sharing permettant à ses clients d’accéder à des données en temps réel via une plateforme data basée sur Snowflake. Dans ce contexte, l’entreprise souhaite structurer le modèle économique de cette offre, en définissant un modèle de pricing cohérent entre : · Les coûts d’infrastructure Snowflake · L’usage réel des données · La valeur business apportée aux clients La mission vise à définir une stratégie de monétisation durable pour l’accès et l’exploitation de ces données. Objectifs de la mission : Le consultant interviendra pour : · Analyser les coûts techniques liés à l’usage de Snowflake · Comprendre les patterns d’usage des données par les clients · Définir un modèle de pricing pour l’accès et l’exploitation des datasets · Identifier les scénarios de monétisation possibles (data sharing, analytics, IA, etc.) L’objectif est de concevoir un modèle économique équilibré entre coût d’infrastructure, valeur client et potentiel de croissance commerciale. Travaux attendus : Le consultant devra notamment : · Analyser le modèle de pricing Snowflake (compute, storage, data sharing) · Modéliser différents scénarios de consommation de data · Définir plusieurs modèles de pricing possibles · Évaluer l’impact économique selon différents niveaux d’usage · Recommander une stratégie de monétisation de la data Exemples de modèles étudiés : · Pricing basé sur l’usage · Packages de données · Accès premium à certaines données · Pricing lié aux capacités analytiques ou IA Profil recherché : Nous recherchons un consultant ayant déjà travaillé sur des problématiques de monétisation de la data dans des environnements SaaS ou data platform. Expériences pertinentes : · Définition de modèles de data monetization · Stratégie de data sharing · Pricing de produits data ou analytics · Plateformes Snowflake / Databricks / data cloud Compétences attendues : · Compréhension des architectures data platform · Connaissance du modèle économique Snowflake · Expérience en usage-based pricing · Capacité à modéliser des scénarios économiques · Capacité à traduire les coûts techniques en modèles commerciaux Profil type : Le consultant peut venir de : · Conseil en stratégie data · Éditeur SaaS utilisant Snowflake · Plateforme data / analytics · Equipes data product ou data monetization
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6984 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois