L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 630 résultats.
Mission freelance
101056/Lead Backend JavaScript,Node.js,PostgreSQL, Terraform,React,Data Analysis,AWS Amazon
WorldWide People
Publiée le
Javascript
Node.js
9 mois
400-410 €
Bezons, Île-de-France
Lead Backend JavaScript,Node.js,PostgreSQL,Play Framework,HashiCorp Terraform,React,Data Analysis,AWS Amazon capable de structurer, accélérer et sécuriser le développement de notre plateforme Saas, tout en accompagnant l’équipe dans la montée en maturité technique. Ce rôle combine expertise JS/React, maîtrise backend Node/Postgres, forte expérience AWS, et leadership technique opérationnel. QUALIFICATIONS : JavaScript,Node.js,PostgreSQL,Play Framework,HashiCorp Terraform,React,Data Analysis,AWS Amazon,
Offre d'emploi
Ingénieur Système, Sauvegarde & Réseaux
STHREE SAS pour COMPUTER FUTURES
Publiée le
Active Directory
Powershell
Windows Server
6 mois
Toulouse, Occitanie
L’Ingénieur Système, Sauvegarde et Réseaux intervient au sein du service Études et Développement . Il assure l’intégration du système d’exploitation, des modules applicatifs et des environnements associés, tout en garantissant la cohérence, la fiabilité et la performance des plateformes. Il joue un rôle clé d’information, de formation, d’alerte, et peut intervenir sur tout ou partie d’un projet incluant : infrastructure système, environnement réseau, mécanismes de sauvegarde, industrialisation et intégration plateforme. Responsabilités principales 1. Intégration système & MCO Mise en place et maintien en conditions opérationnelles des environnements : intégration, images, développements, recettes. Validation de la compatibilité entre les différents éléments à intégrer. Paramétrage et tuning des systèmes d’exploitation. 2. Gestion et préparation des environnements Préparation des environnements selon les normes établies. Installation, packaging, validation des modules applicatifs. Industrialisation des processus de déploiement. 3. Support technique & diagnostics N3 Prise en charge du support technique N3 auprès des équipes internes. Résolution des incidents en lien avec les équipes de développement. Diagnostic, analyse, correction et documentation des anomalies. 4. Documentation & procédures Rédaction et mise à jour des procédures d’installation. Documentation technique complète et structurée. Participation à la qualification des plateformes.
Mission freelance
Tech Lead Full Stack Java / Angular
ESENCA
Publiée le
Angular
Google Cloud Platform (GCP)
Java
1 an
Lille, Hauts-de-France
🎯 Contexte Dans le cadre de la transformation continue de son système d’information, un acteur majeur du retail renforce ses équipes IT dédiées aux domaines approvisionnement, transport et qualité . Vous intégrerez une équipe agile organisée en plusieurs squads, en charge d’applications stratégiques couvrant notamment : le suivi des flux logistiques amont la gestion des litiges fournisseurs le suivi du cycle de vie des produits en magasin Ces applications, développées sur des stacks technologiques modernes , sont au cœur des opérations permettant d’assurer la disponibilité des produits en point de vente. Vous rejoindrez une squad spécialisée sur les sujets transport amont et gestion des flux , évoluant dans un environnement agile (Scrum) . 🧩 Mission En tant que Tech Lead Full Stack , vous intervenez à la fois sur des activités de développement et de leadership technique, avec un rôle clé dans la qualité et la performance des solutions. 🚀 Responsabilités principales1. Développement Full Stack Concevoir et développer des fonctionnalités en Java / Angular Participer activement aux développements (majorité du temps) Garantir la qualité, la performance et la maintenabilité du code 2. Leadership technique Encadrer et accompagner les développeurs de la squad Assurer le suivi technique et contribuer aux recrutements et à l’intégration Être garant des bonnes pratiques de développement 3. Qualité et excellence technique Mettre en place et faire respecter les standards qualité (tests, code review, CI/CD) Suivre les indicateurs de qualité (ex : Sonar, couverture de tests) Contribuer à la réduction de la dette technique 4. Coordination avec les équipes transverses Être l’interlocuteur technique auprès des architectes Participer aux décisions d’architecture Assurer la cohérence technique avec les autres squads 5. Amélioration continue Assurer une veille technologique active Être force de proposition sur les évolutions techniques Contribuer à l’amélioration des pratiques de développement et des outils 📦 Livrables attendus Développements robustes et documentés Revue et validation des merge requests Documentation technique Plans d’amélioration continue (qualité / dette technique) Contribution aux chiffrages et aux choix techniques 📅 Modalités Démarrage : ASAP Rythme : temps plein Organisation : agile (Scrum) 🎯 Objectif Garantir la qualité technique, la performance et la pérennité des applications critiques , tout en accompagnant la montée en compétence de l’équipe et en contribuant activement aux développements.
Mission freelance
Administrateur de Bases de Données
Phaidon London- Glocomms
Publiée le
Ansible
AWS Cloud
Dynatrace
3 mois
Paris, France
Administrateur de Bases de Données – Cloud & Automatisation Client : Prestataire mondial de technologies et de services Lieu : Nanterre Contrat : 3 mois À propos de l’entreprise Notre client est une organisation internationale de premier plan spécialisée dans les opérations technologiques sécurisées à grande échelle et les solutions numériques pour les environnements de travail. Avec une forte culture d’excellence technique et de fiabilité opérationnelle, l’entreprise soutient des millions d’utilisateurs dans plusieurs régions grâce à des infrastructures robustes, des initiatives de transformation cloud et des systèmes critiques. Elle est reconnue pour son haut niveau d’exigence, son modèle de delivery structuré et sa capacité à gérer des environnements technologiques complexes à l’échelle mondiale. Présentation du rôle L’équipe mondiale d’ingénierie des bases de données recherche un Administrateur de Bases de Données Senior pour accompagner des projets de transformation cloud, des initiatives d’automatisation et l’amélioration continue de la fiabilité des plateformes Oracle et SQL. Ce rôle couvre des activités d’ingénierie, de migration, de support d’incidents et d’optimisation de plateformes, au sein d’une équipe technique collaborative. Le poste exige une solide expertise Oracle, une expérience en migration vers le cloud (AWS), des compétences en automatisation, ainsi que la capacité à soutenir des services critiques de bases de données en zone EMEA. La mission inclut l’ingénierie, la supervision, la résolution d’incidents, la réplication, la sauvegarde, la reprise après sinistre et l’amélioration des frameworks d’automatisation. Une participation aux astreintes sera requise. Responsabilités principales Contribuer aux efforts d’ingénierie au sein d’une équipe DBA globale, en soutien aux initiatives de transition cloud et d’optimisation d’infrastructure. Diriger les activités de migration cloud, d’automatisation, d’ingénierie de réplication et de frameworks d’auto‑réparation. Consolider et améliorer les métriques, dashboards et solutions de supervision. Assurer le support des serveurs Oracle et SQL en EMEA : incidents, changements, migrations et plans de continuité (DRP). Mettre en œuvre et maintenir les solutions de sauvegarde, clonage et restauration (DATAPUMP, RMAN). Travailler sur les technologies de réplication, notamment GoldenGate et DataGuard. Collaborer avec des équipes transverses dans le cadre de projets d’ingénierie internationaux. Participer aux rotations d’astreinte. Compétences & Qualifications requises Minimum 5 ans d’expérience en administration Oracle. Connaissance d’autres technologies telles que SQL Server, MongoDB, PostgreSQL, Hadoop (atout). Solide exposition à AWS et aux migrations cloud. Expérience sur les clusters Oracle RAC. Maîtrise des solutions de sauvegarde, clonage et migration via DATAPUMP et RMAN. Expertise en reprise après sinistre via DataGuard. Solide expérience Linux (Red Hat). Connaissance d’outils de supervision : OEM, Sitescope, Prometheus, Dynatrace. Compétences en automatisation et scripting (Python, Java, PowerShell, Terraform). Expérience CI/CD ou d’orchestration d’automatisation (Ansible, AWX ou équivalent). Maîtrise de l’anglais (lu/parlé/écrit).
Mission freelance
Architecte DATA
Codezys
Publiée le
Python
SQL
Teradata
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d'une phase de transformation visant à adopter un modèle axé sur les données (Data Centric) et de définition d'une stratégie Data, le client met en œuvre une nouvelle plateforme Data Régime pour répondre à ses besoins. Un programme dédié à cette plateforme a été lancé fin 2025. Au premier trimestre 2026, des Proofs of Concept (POC) sont en cours afin de sélectionner la future plateforme Data. Le client recherche une prestation en architecture Data pour l’accompagner dans la définition de l’architecture cible et la mise en œuvre de cette nouvelle plateforme au sein d’un écosystème existant. Objectifs et livrables Le consultant intervenant aura pour mission de définir, concevoir et accompagner la construction de l’architecture cible Data. Ses principales responsabilités seront : Définir l’architecture cible Data : Concevoir une architecture alignée avec la stratégie globale Data et les principes Data-Centric, en déterminant les patterns d’intégration ainsi que les couches fonctionnelles de la plateforme (inclusion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : Élaborer l’architecture technique globale en intégrant l’écosystème existant (tels que Teradata, Hadoop) et en tenant compte des stratégies d’évolution (cloud ou on-premise, gouvernance, scalabilité). Proposer une trajectoire d’évolution permettant la transition vers cette nouvelle plateforme, incluant stratégie de migration, coexistence et déploiement par phases. Modélisation et harmonisation des données : Définir des modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossaire). Établir les principes de modélisation adaptés aux usages, qu'ils soient analytiques, opérationnels ou liés à des data products. Data Products & accompagnement métier : Soutenir les équipes métiers dans la conception et la structuration des data products, en veillant à leur cohérence avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : Élaborer les standards d’intégration, de transformation, de stockage et d’exposition des données. Formaliser les bonnes pratiques concernant les outils de l’écosystème, notamment ceux liés à l’ingestion, à la qualité, à l’orchestration, au catalogage et à la gouvernance.
Offre d'emploi
Data Engineer TERADATA ET BIGDATA
WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)
12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ
Offre d'emploi
Ingénieur OpenStack / Kubernetes (H/F)
AVA2I
Publiée le
Ansible
Cloud
Docker
3 ans
40k-45k €
400-550 €
Île-de-France, France
Contexte & Mission Dans le cadre de l’évolution des plateformes Cloud, vous interviendrez sur le design, le run, l’automatisation et l’industrialisation des environnements OpenStack et Kubernetes pour les différentes entités IT. Vos responsabilités Développement et évolution des plateformes OpenStack / Kubernetes Migration des workloads VMware vers OpenStack Mise en place et maintien en condition opérationnelle des infrastructures Développement de solutions de monitoring, automatisation et reporting Proposition et implémentation de nouvelles architectures techniques Support technique et gestion des incidents Contribution à la documentation technique et fonctionnelle Automatisation des opérations L1 / L2 et du catalogue de services Compétences requises Systèmes : Linux (RedHat, Ubuntu) Virtualisation & stockage : KVM, Ceph, iSCSI Réseau : iptables DevOps & automation : Ansible, Python Observabilité : ELK / Logstash, Prometheus Conteneurs & orchestration : Docker, Kubernetes (CNI, CSI) Profil recherché Solide expérience sur des environnements Cloud / OpenStack Bonne maîtrise des environnements Kubernetes en production Esprit d’automatisation et d’industrialisation Capacité à évoluer dans un environnement international (anglais obligatoire)
Mission freelance
Développeur d'applications - Nantes
Signe +
Publiée le
Ansible
CI/CD
Gitlab
190 jours
360-390 €
Nantes, Pays de la Loire
Description: Mission à temps plein dans le secteur bancaire, débutant le 13 avril 2026 et durant au moins 12 mois. Elle consiste à concevoir, développer et optimiser des solutions de données tout en soutenant la migration des outils ETL vers des solutions ELT. Responsabilités : - Concevoir et développer de nouvelles solutions de données principales. - Assurer la maintenance en conditions opérationnelles (MCO) et l'optimisation continue. - Soutenir les transitions techniques et fonctionnelles. - Développer des processus ELT xDI. - Développer et maintenir des modèles xDI. - Contribuer à la définition de la feuille de route technique pour la migration d'ETL Datastage vers ELT xDI.
Mission freelance
Ingenieur devops H/F
ALLEGIS GROUP
Publiée le
Kubernetes
Linux
Openshift
3 ans
Nice, Provence-Alpes-Côte d'Azur
1. Exploitation et supervision des environnements IA : • Superviser les environnements IA (clusters, plateformes conteneurisées, workloads intensifs) • Mettre en place et maintenir les outils de supervision, de monitoring et d’alerting • Analyser les incidents, problèmes de performance et situations de saturation • Assurer le maintien en conditions opérationnelles (MCO) des plateformes • Participer à la gestion de la capacité et à l’anticipation des besoins compute • Contribuer à la montée en charge des plateformes IA (scalabilité, résilience, haute disponibilité) • Optimiser l’utilisation des ressources (compute, GPU, mémoire, stockage) en lien avec les équipes infrastructure 2. DevOps & automatisation : • Concevoir, écrire et maintenir des playbooks Ansible (idéalement via Ansible Automation Platform) • Automatiser les actes récurrents d’exploitation et de provisioning • Industrialiser les déploiements et opérations via des pipelines CI/CD • Être force de proposition sur l’amélioration continue des processus d’automatisation 3. Plateformes conteneurisées & OpenShift : • Administrer et exploiter des clusters OpenShift • Participer à la standardisation et à la sécurisation des plateformes Kubernetes • Contribuer à la stabilité, à la performance et à la montée en charge des environnements conteneurisés Date de démarrage : Immédiatement, Localisation : Nice Rythme : 2 jours de télétravail Mission longue visibilité
Mission freelance
Data Engineer Confirmé – Environnement industriel (H/F)
Pickmeup
Publiée le
Dataiku
Numpy
Pandas
2 ans
350-370 €
Saint-Paul-Trois-Châteaux, Auvergne-Rhône-Alpes
Missions principalesConception et architecture des solutions data Concevoir et développer des pipelines de données robustes pour des environnements industriels. Cartographier et documenter les sources de données . Concevoir des solutions permettant le traitement de volumes importants de données . Définir la structure des bases de données et des métadonnées . Participer à la mise en place et à l’évolution d’un Data Lake . Intégration et gestion des données Collecter et intégrer des données provenant de sources multiples (applications, capteurs industriels, systèmes externes) . Garantir la qualité, la sécurité et la fiabilité des données . Mettre en place des mécanismes de contrôle, nettoyage et validation des données . Assurer la supervision et la maintenance des pipelines de données en production. Collaboration et animation Collaborer avec les équipes métier et IT afin de comprendre les besoins en données. Participer à l’animation de la communauté technique autour des sujets data . Contribuer à la veille technologique sur les solutions data et proposer des améliorations. Livrables attendus Dossier de spécification et d’architecture des solutions data mises en œuvre. Catalogues et cartographie des données . Mise en place d’un Data Lake adapté aux besoins métier . Documentation et outils permettant de garantir la qualité des données .
Mission freelance
Ingénieur Test & Débogage Systèmes (C / Java / Linux / Windows)
Signe +
Publiée le
QA
12 mois
350 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre de l’évolution d’outils internes, nous recherchons un ingénieur test technique confirmé afin de finaliser et stabiliser un débogueur COBOL propriétaire ainsi que contribuer à l’amélioration du compilateur associé. La mission nécessite une forte capacité d’analyse bas niveau et une excellente maîtrise des environnements Linux et Windows. Objectifs de la mission Mettre en place une infrastructure de tests dédiée au débogueur Concevoir et exécuter des scénarios de tests techniques Identifier, analyser et qualifier les anomalies Corriger les bugs au niveau du débogueur Intervenir ponctuellement sur le compilateur Missions principales Développement d’une infrastructure de tests automatisés Création de scénarios de validation technique du débogueur Analyse des comportements anormaux en environnement système Debug bas niveau sous Linux et Windows Correction de code en C (débogueur) Contribution ponctuelle en Java (compilateur) Participation aux phases de test, validation et documentation Environnement technique Langages : C Java Systèmes : Linux Windows Outils : GDB (Linux) CDB (Windows) Git Apprécié : CI/CD Programmation asynchrone TypeScript La connaissance du COBOL n’est pas obligatoire. Profil recherché Bac+5 en informatique ou équivalent Expérience confirmée en développement système Expérience impérative avec débogueurs et compilateurs (usage avancé minimum) Capacité à comprendre et modifier du code complexe existant Bonne maîtrise du debug bas niveau Autonomie rapide et capacité d’organisation Rigueur technique et esprit analytique Important Ce poste ne correspond pas à un profil QA fonctionnel (Selenium, tests métiers, ISTQB). Il s’adresse à un profil technique capable d’intervenir directement dans le code du débogueu
Offre d'emploi
Développeur C# (H/F)
Link Consulting
Publiée le
SQL
38k-42k €
Saint-Étienne, Auvergne-Rhône-Alpes
Notre client, acteur majeur du secteur Banque, est à la recherche de son futur Développeur C# (H/F) pour son site de Saint-Etienne, dans le cadre d’une assistance technique. Vous interviendrez sur des projets stratégiques liés aux outils métiers et aux applications internes, dans un environnement exigeant et structuré. ## Vos missions Intégré à une équipe agile pluridisciplinaire vous devrez : * Participer à l’analyse des besoins fonctionnels et techniques * Concevoir et développer de nouvelles fonctionnalités en C# * Assurer la maintenance évolutive et corrective des applications existantes * Rédiger les spécifications techniques et la documentation associée * Réaliser les tests unitaires et contribuer aux phases de recette * Optimiser les performances des applications et des requêtes SQL * Collaborer avec les équipes métiers et infrastructure
Offre d'emploi
Consultant Talend
UCASE CONSULTING
Publiée le
API REST
Java
SAP
8 mois
40k-50k €
420-450 €
Paris, France
Bonjour à tous, Pour le compte de notre client, nous recherchons un consultant Talend pour développer et maintenir les flux d'intégration de données (ETL). Missions principales Participation à l’analyse et la conception technique Développement de flux d’intégration Gestion des sources et qualité des données Tests Documentation Environnement technique de la mission : Talend DI / / Web services Anglais professionnel requis (échanges avec équipe de dév internationale) Localisation : Paris Télétravail : 2j/semaine
Mission freelance
POT8966 - Un Data Analytics Stream Leader SAP sur Vélizy
Almatek
Publiée le
SQL
6 mois
Vélizy-Villacoublay, Île-de-France
Almatek recherche pour l'un de ses clients, un Data Analytics Stream Leader SAP sur Vélizy. Projet: Conversion du système SAP ECC6 EHP0 vers SAP S/4HANA afin de répondre à un besoin client. Les critères demandés : Connaissance du traitement de la donnée et de son utilisation, de la collecte et de la modélisation Connaissance de SAP ECC ou S/4HANA Capacité d’analyse de l’existant et de stratégie data Connaissance des outils Pack Office Connaissance métier : en particulier finance, supply chain, opérations Anglais courant (écrit et oral) : langue du projet Une connaissance du langage SQL serait un plus Une expérience de projet de conversion, montée de version ou déploiement SAP serait un plus Expression du besoin En étroite collaboration avec son référent, le Chef de Projet métier, il est demandé au profil d’assurer les missions de Data Analytics Stream Leader pour le cadrage du chantier : Le profil pilotera (organisation, animation, restitution) les ateliers avec le métier pour finaliser la liste des codes transactions spécifiques liés au reporting et les requêtes développées par les utilisateurs. Le profil préparera et participera au Comité Projet hebdomadaire pour présenter l’avancement de ses activités relatives au stream Data Analytics. Proposera et mettra à jour un planning détaillé relatif à son stream Pour les remédiations/rebuild SAP : Le profil pilotera la phase de réalisation (organisation, animation, restitution), en collaboration avec l’équipe IS et les Domain leaders métier, en particulier : Ordonnancer les priorités de remédiation/rebuild des transactions/queries, Mettre en place les indicateurs de suivi d’avancement du Design, Build, Tests Définir une stratégie de tests et rédiger les scénarios de test Pour les transferts vers la Data-Platform, le profil pilotera la phase de réalisation (organisation, animation, restitution), en collaboration avec l’équipe Data gouvernance, la Digital Factory et les équipes métier concernées. Dans les 2 possibilités, le profil supportera les équipes métier dans la reconstruction des powerBI. Lieu de prestation : La prestation est à réaliser sur un site client à Vélizy (78) ou Villeurbanne (69). Télétravail possible 2J par semaine.
Mission freelance
DevOps / Cloud Engineer
HAYS France
Publiée le
Azure
Docker
GitLab CI
3 mois
450-500 €
Alpes-Maritimes, France
Nous recherchons un DevOps / Cloud Engineer pour renforcer notre équipe et prendre en main une infrastructure mixte on-premise et Azure . Votre mission principale sera d’améliorer l’existant, fiabiliser les déploiements et accompagner l’évolution de notre plateforme. Vos missions CI/CD Reprendre et simplifier la CI existante Clarifier les triggers et améliorer la cohérence des pipelines Maintenir les runners GitLab self-hosted Organisation Git Réorganiser les dépôts (CI/CD, Terraform, Ansible, code applicatif, scripts…) Infrastructure as Code Reprendre et améliorer l’infrastructure Terraform existante Accompagner l’évolution de l’architecture Support on-premise Gestion de la version logicielle on-prem (hardware, GPU, Linux, drivers) Support technique sur l’infrastructure locale Support production Troubleshooting Analyse et résolution d’incidents Gestion des déploiements Coordination des déploiements complexes Synchronisation infrastructure / application Gestion des migrations et livraisons en étapes Conteneurisation Participer à la dockerisation de l’application Infrastructure & environnements Reprise et évolution des environnements dev / QA / staging / prod Monitoring Installation et maintenance de Grafana Observabilité avec Prometheus et Azure Monitor Évaluation technique Étude de solutions de stockage objet ( Ceph, MinIO )
Mission freelance
PROJECT MANAGER (MOE Data)
ROCKET TALENTS
Publiée le
Big Data
Data science
ETL (Extract-transform-load)
1 an
400-500 €
Niort, Nouvelle-Aquitaine
Description Prestation en gestion de projets MOE Data est central pour construire, maintenir et optimiser les plateformes et pipelines de données, garantissant ainsi la fiabilité et l'accessibilité des données pour l'ensemble de l'entreprise. Responsabilités : - Pilotage d'activité. - Management opérationnel d'une équipe composée de 2 pôles. - Accompagnement de l'équipe dans les conceptions. - Aide aux PO dans la relation avec les métiers. - Garantie des livrables avec les clients (entrants/sortants). - Animation d'ateliers métiers. - Participation à des task forces en cas d'incidents. Compétences : : - Appétence pour les sujets techniques : DATA, IA, RPA, Data Science. - Maîtrise des outils de type ETL/ELT pour la préparation et l'industrialisation des flux (souhaitée). - Expertise en langage SQL (par exemple, Dataiku). - Capacité à challenger une équipe, ses solutions, aider à chiffrer les coûts de réalisation et mener à bien les phases de qualification avec les clients. - Connaissances en intégration et optimisation des données pour Tableau (ou équivalent). - Expertise en modélisation de données (MCD, dimensionnel) et capacité à les mettre en œuvre. - Expérience solide en conception et implémentation de processus ETL/ELT. - Expérience en BI/BO ou SAS serait un plus dans le cadre des migrations à réaliser. - Connaissances en assurance vie seraient appréciées.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1630 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois