L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 133 résultats.
Offre d'emploi
Ingénieur Systèmes (H/F)
QUALIS ESN
Publiée le
50k €
Lille, Hauts-de-France
Notre agence Qualis IT situé à Paris (10) recherche un Ingénieur Systèmes (H/F) pour l'un de ses clients à Lille (59000) Missions principales Maintien en condition opérationnelle de la production Assurer la supervision de l'infrastructure et adopter une démarche proactive afin de limiter les impacts et incidents. Mettre en place et gérer les flux via un ordonnanceur. Diagnostiquer et résoudre les incidents systèmes. Réaliser des scripts d'automatisation (PowerShell, BAT, Shell). Maintenance et évolution des infrastructures systèmes Mesurer et optimiser les performances des systèmes. Prévenir, diagnostiquer et corriger les erreurs systèmes. Remonter les informations critiques : obsolescence des systèmes/risques de sécurité/incidents récurrents. Participer aux nouveaux projets systèmes et assurer leur mise en œuvre technique. Contribuer aux paramétrages techniques des nouvelles infrastructures. Administration des systèmes Administrer les systèmes d'exploitation : Windows/ Linux / Unix / AIX. Assurer la traçabilité et l'exploitation des événements systèmes. Configurer les outils de supervision (ex : Zabbix). Réaliser le suivi des systèmes : sauvegardes, antivirus, dispositifs de sécurité. Gérer les mises à jour, montées de version et décommissionnement des serveurs, conformément aux règles de la DSI. Contribution aux projets Participer aux projets d'infrastructure IT. Contribuer au respect des engagements projets : délais/ qualité/ budget. Environnement technique Systèmes : Linux / Microsoft Windows / Unix / AIX Réseau et sécurité : WAN / LAN / Solutions Fortinet et Stormshield Administration systèmes : Active Directory / Azure AD / WSUS Supervision et monitoring : Zabbix / Splunk / ELK Ordonnancement : Opcon Sécurité : SentinelOne Outils collaboratifs : Microsoft Exchange / Microsoft 365 Informations complémentaires Nature de contrat : CDI Lieu de la mission : Lille Rémunération : 50 000€ brut annuel Temps de travail : 37 heures hebdomadaires (dont 2h en compteur RTT) Autres informations contractuelles : mutuelle familiale et prévoyance, titres restaurant, remboursement transport en commun à 50%, avantages du CSE (culture, voyage, chèque vacances, et cadeaux), RTT (jusqu'à 12 par an), plan d'épargne, prime de participation Tous nos postes sont ouverts aux personnes en situation de handicap.
Offre d'emploi
Data Analyste (H-F) à Niort
K-Lagan
Publiée le
Big Data
1 an
10k-48k €
100-450 €
Niort, Nouvelle-Aquitaine
Chez K-LAGAN, nous parions sur vous ! 🚀 K-LAGAN est un cabinet de conseil spécialisé dans la Data, l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... 🔍 Nous sommes à la recherche d'un(e) Data Analyst , qualifié(e) et motivé(e) pour rejoindre nos équipes et travailler chez un de nos clients très connu dans le secteur assurances, basé à Niort.
Offre d'emploi
Chef de Projet Data Gouvernance H.F
NSI France
Publiée le
Azure
DataGalaxy
Gouvernance, gestion des risques et conformité (GRC)
30 jours
Châtillon, Île-de-France
Description de l'offre d'emploi Acteur majeur dans le domaine IT, depuis notre création en 1993, nous n'avons cessé de croître et d'évoluer. Avec une équipe dévouée de près de 1.400 collaborateurs répartis sur plusieurs sites en Belgique, au Luxembourg, en France et au Canada, NSI a suivi une trajectoire exceptionnelle. Notre entreprise est à la pointe de la révolution numérique, offrant une gamme complète de services IT, de l'analyse au développement de logiciels, en passant par l'architecture et la gouvernance IT. Votre rôle Le/la consultant(e) travaillera pour un client de NSI France basé en IDF dans le secteur de l’agroalimentaire avec de gros enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. Descriptif des missions Contribuer à la mise en place et au pilotage de la gouvernance des données (qualité, fiabilité, cohérence) Identifier, structurer et documenter les données et indicateurs critiques en lien avec les métiers Définir et suivre les indicateurs de qualité des données et mettre en œuvre des actions d’amélioration continue Concevoir des tableaux de bord de pilotage (qualité, usages, performance data) Détecter les anomalies et formuler des recommandations structurantes en matière de data gouvernance Collaborer avec les équipes métiers, produits et IT pour intégrer la gouvernance dès la conception Animer et accompagner la communauté des Data Analysts autour des bonnes pratiques data
Mission freelance
Reporting Réglementaire (SQL/Alteryx) Recette & Data
STHREE SAS pour HUXLEY
Publiée le
6 mois
France
Contexte & objectifs Au sein d'une équipe projet Finance & Risques rattachée à la Direction Architecture & Reporting , vous intervenez sur des travaux de recette et de qualité des données pour des reportings réglementaires d'un groupe bancaire de premier plan. L'objectif : sécuriser la production réglementaire, fiabiliser les flux de données et déployer de nouveaux contrôles de second niveau. Missions principales 1) Déclinaison d'une nouvelle guidance BIDS au format MBDT Organiser la recette (stratégie, jeux d'essais, critères d'acceptation). Exécuter les campagnes de tests en interaction avec les métiers. Réaliser l' analyse de qualité des données avec les communautés concernées et leurs DSI. Suivre les anomalies (qualification, priorisation, plan de remédiation). Animer des ateliers de restitution et produire les synthèses de recette . 2) Recette des dispositifs réglementaires au sein de la squad "Usages" Conduire les TNR et évolutions liées aux nouvelles versions des backbones de données (sourcing des reportings réglementaires). Valider les tirs de certification dynamique dans le cadre d'un projet de mutualisation du SI (tests d'intégration bout‑en‑bout, traçabilité, conformité). Livrables attendus Stratégie et cahiers de recette , cas de tests, jeux de données, PV de validation. Dossiers de contrôle (fiches de contrôle, flowcharts de production, notes de synthèse). Tableaux de bord d'anomalies et plans d'actions. Compte‑rendus d'ateliers et rapports de synthèse pour les parties prenantes. Profil recherché 7 à 9 ans d'expérience en data/recette dans un environnement bancaire/assurance . Maîtrise de SQL et Alteryx ; à l'aise avec des volumétries importantes et la traçabilité de bout en bout. Solide culture fonctionnelle bancaire et reporting réglementaire (ex. AnaCredit, RCH, VDS, SRB‑MREL ). Connaissance des dispositifs de contrôle 1er/2nd niveaux et des meilleures pratiques de qualité de données . Rigueur, autonomie, sens du service et capacité d'animation (ateliers, restitutions, coordination multi‑équipes).
Offre d'emploi
Technicien Data Center
NOOEH
Publiée le
Ansible
Cisco
Data Center
12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons des Techniciens(nes) Data Center pour rejoindre notre équipe et assurer le bon fonctionnement opérationnel de nos centres de données. Vous interviendrez sur l’installation, la maintenance et le dépannage des infrastructures serveur et réseau, ainsi que sur le câblage et la gestion des actifs. Vos missions principales : Assurer le support quotidien au sein du data center Installer et mettre en service des serveurs et équipements réseau (rack & stack) Réaliser et documenter le câblage cuivre et fibre optique Dépanner les problèmes matériels et de connectivité (niveau 1) Suivre et traiter les incidents et demandes via le système de ticketing Maintenir et mettre à jour les inventaires et la gestion des actifs Participer au cycle de vie des serveurs, switchs, routeurs et systèmes de stockage Contribuer aux processus de maintenance et de changements, y compris les actions préventives Respecter les procédures opérationnelles standard (SOP), ainsi que les règles de sécurité et de qualité Communiquer efficacement avec les équipes internes et les clients Participer aux astreintes pour le support en dehors des horaires réguliers
Offre d'emploi
Responsable Master Data (H/F) - 93
Mindquest
Publiée le
Data Warehouse
ETL (Extract-transform-load)
Master Data Management (MDM)
Villepinte, Île-de-France
Je recherche pour l’un de mes clients, acteur de référence en Europe spécialisé dans la location de solutions frigorifiques et de véhicules sous température dirigée, un Responsable Master Data. Dans un environnement multi-ERP et multi-applicatif, ce poste joue un rôle central dans la fiabilité et la gouvernance des données de référence. Vous intervenez au cœur des enjeux de transformation digitale, de migration ERP (dont SAP) et d’urbanisation du SI. Véritable référent Master Data, vous garantissez la qualité, la cohérence et l’unicité des données stratégiques de l’entreprise. Mission Gouvernance & qualité des données - Définir et faire évoluer le dictionnaire de données (modèles, attributs, règles) - Garantir les standards de gouvernance et mettre en place les KPIs de Data Quality - Assurer la cohérence et l’unicité des référentiels Flux & interopérabilité - Piloter les interactions entre ERP (dont SAP) et outils métiers (CRM, WMS, BI…) - Superviser les flux ETL / ELT avec les équipes techniques - Contribuer à l’urbanisation du SI Data Migration de données - Sécuriser les projets de migration ERP - Définir les règles de mapping et de transformation - Participer aux phases de tests, validation et mise en production Management & coordination - Encadrer et faire monter en compétence une équipe de Data Stewards - Assurer l’alignement entre métiers, IT et gouvernance Data - Participer aux comités de gouvernance
Offre d'emploi
Data Analyst H/F
JEMS
Publiée le
45k-55k €
Paris, France
Nous recherchons un(e) Data Analyst confirmé(e) capable d'accompagner les métiers dans l'aide à la décision. Vous aurez la charge de : • Guider et accompagner les équipes métier dans l'exploitation et la valorisation de leurs données, identifier des leviers d'optimisation et proposer des améliorations des processus business • Servir d'intermédiaire entre le métier et la DSI pour faciliter la circulation de l'information et la mise en place des solutions data • Recueillir et analyser les besoins métiers (Marketing, Retail, CRM, Supply, Finance...) et concevoir des dashboards Power BI à forte valeur ajoutée • Modéliser, préparer et fiabiliser les données (SQL, DAX, Databricks, Snowflake) et optimiser les flux pour garantir leur qualité et leur disponibilité • Mener et piloter des études analytiques, conduire des analyses permettant d'éclairer la prise de décision et d'orienter les actions métier • Contribuer à l'amélioration de la culture Data chez nos clients et renforcer la capacité des équipes à exploiter leurs données efficacement Référence de l'offre : 18agydgm9j
Mission freelance
Data Engineer Senior H/F
Comet
Publiée le
Apache Spark
Azure Data Factory
Databricks
60 jours
510-620 €
Île-de-France, France
Vous rejoindrez un projet stratégique de plateforme unifiée d’intégration et de traitement des données , centralisant plus de 20 sources de données hétérogènes pour répondre aux besoins analytiques des équipes produit et décisionnel. La solution est développée selon les principes d’un lakehouse avec architecture en médaillon (Bronze, Silver, Gold). Environnement technique : Azure Data Factory Azure Databricks Spark Scala & SQL Azure DevOps (Git) Datadog (monitoring) Missions principales : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Scala sur Databricks Maintenir et créer de nouveaux indicateurs de qualité de données Garantir la qualité du code et le respect des normes de développement Implémenter des tests unitaires et assurer la fiabilité des solutions Maintenir les dashboards de monitoring sur Datadog Participer au refactoring du code existant pour améliorer performance et maintenabilité (Spark Declarative Pipeline et DBT)
Offre d'emploi
ALTERNANCE - Assistant(e) chargé(e) d'études marketing data H/F
█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Microsoft Publisher
Boulogne-Billancourt, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
INGENIEUR DATA BI - GENIO
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Proxy PO DATA - finance / Processus Procure to Pay AND Order to cash /DATAIKU / Anglais (H/F)
Octopus Group
Publiée le
BI
Dataiku
Finance
6 mois
490-600 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, un proxy-product Owner Data Objectif : Apporter son soutien à l'équipe de finance d'entreprise dans la mise en œuvre de son programme de transformation financière. Ce programme couvre l'automatisation des processus, ainsi que les processus P2P (Procure-to-Pay) et O2C (Order-to-Cash). Vous veillerez à ce que toutes les initiatives de transformation financière comportant une dimension « données » soient correctement identifiées, structurées et alignées sur les normes, les modèles et les cadres de mise en œuvre du Bureau des données du groupe. Il s'agit d'un poste transversal et hautement collaboratif, faisant le lien entre les équipes Finance, Informatique et Données, afin de garantir la mise en œuvre et l'adoption efficaces de solutions basées sur les données. Mission Principale : Agir en tant que Proxy Product Owner Data pour le programme de transformation de la finance d'entreprise, en permettant une exécution axée sur les données en s'assurant que les projets sont : • Correctement identifiés comme comportant une composante données • Sont recensés et alignés sur les priorités du Bureau des données du Groupe • Sont structurés selon les modèles, solutions et normes d'architecture du Groupe • Sont mis en œuvre efficacement avec une gouvernance et des conseils techniques appropriés Identification et gestion des projets Identifier les initiatives de transformation financière ayant un impact sur les données Évaluer la valeur métier et la faisabilité Veiller à la cohérence avec les priorités du Bureau des données du Groupe Veiller à la hiérarchisation et à l'intégration dans le backlog du bureau des données du groupe Traduire les besoins financiers en exigences techniques et en matière de données Veiller à l'alignement sur les modèles d'architecture du groupe Valider la conception de la solution et les modèles de données Expertise en processus financiers et soutien à la transformation Apporter une expertise sur les processus de finance d'entreprise Accompagner les initiatives de transformation dans les domaines suivants : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus financiers S'assurer que les solutions de données répondent aux besoins opérationnels de la fonction financière Mise en œuvre de l'automatisation des processus Soutenir la mise en œuvre des initiatives d'automatisation des processus Contribuer à l'élaboration de cas d'utilisation de l'automatisation à l'aide de Dataiku Garantir l'intégration et la qualité des données pour les flux de travail automatisés Coordination de la mise en œuvre Assurer la coordination entre les équipes financières, informatiques et le Bureau des données du groupe Suivre l'avancement du projet et lever les obstacles Veiller à ce que la mise en œuvre soit alignée sur les étapes clés de la transformation Normes, gouvernance et bonnes pratiques Veiller au respect des normes du Bureau des données du Groupe Appliquer les modèles d'architecture et les cadres de gouvernance Garantir le respect des exigences en matière de qualité et de sécurité des données Implication des parties prenantes et communication Servir de point de contact principal pour les données dans le cadre du programme de transformation financière Fournir des rapports d'avancement réguliers Soutenir la prise de décision et la coordination
Offre d'emploi
Data Quality Analyst senior
FIRST CONSEIL
Publiée le
BigQuery
Data quality
Google Cloud Platform (GCP)
6 mois
40k-45k €
400-550 €
Île-de-France, France
Au sein d'une équipe composée de data analysts intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer, analyser et documenter les données du data warehouse du groupe; Contribuer à l’amélioration de la qualité du data warehouse : mettre en place le plan d’action défini sur 2026 : contrôles, monitoring et alerting Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. Notre stack data : GCP, BigQuery, Python, Looker Studio Profil recherché Formation : Diplôme de niveau BAC +4 à 5, en école d’ingénieurs ou université spécialisé en statistiques, data science, informatique décisionnelle ou data management ; Langues : Français et Anglais courant exigés ;
Offre d'emploi
Tech lead réseaux et sécurité H/F
Karma Partners
Publiée le
Cisco
LAN
SD-WAN
6 mois
40k-50k €
400-550 €
Chambéry, Auvergne-Rhône-Alpes
Poste à pourvoir en pré-embauche / Presta + CDI - analysez, concevez et validez les solutions techniques et architectures informatiques des infrastructures IT - intervenez dans les phases amonts des projets pour identifier, définir et déployer les technologies d'infrastructures les plus pertinentes tout en restant garant du respect des normes, méthodes et règles de sécurité du Groupe - travaillez en étroite collaboration avec les équipes « Enterprise Architecture » et « Sécurité » du groupe ainsi que les SPM et les DM Vos missions: 1. Assurer la responsabilité de la phase de DESIGN des projets (Projet = DESIGN, BUILD et RUN) en incluant l'étude et la validation des solutions : - Piloter la phase d'architecture et d'étude des projets - Apporter une vision technique dans le chiffrage de projet - Piloter la réalisation des POCs 2. Participer à la phase BUILD des projets : - S'assurer que la solution technique est construite en accord avec les documents d'architecture techniques - Participer via le comité d'architecture à la définition des standards, des configurations et des bonnes pratiques suivant les technologies utilisées. - Vous fournissez des rapports d'avancement de vos travaux à votre management et aux autres membres de l'équipe 3. Contribuer à la gestion de la Production : - Vous participez à l'activité opérationnelle de l'équipe (Run / Astreintes / Intervention planifiées) et opérez dans un contexte international selon les bonnes pratiques ITIL - Vous vous mettez à la disposition de l'équipe pour apporter votre expertise dans la résolution d'incidents et vous documentez vos travaux avec des procédures et documents d'exploitation 4. Assurer une veille technologique : - Vous êtes force de proposition pour faire évoluer l'existant et améliorer l'efficacité du service rendu en effectuant une veille technologique - Vous avez une culture de « l'infrastructure as a code » et une appétence sur les sujets d'automatisation des déploiements, de configuration et optimisation des composants utilisés sur les technologies.
Mission freelance
Data Engineer/DataOps - Maintenance prédictive
Nicholson SAS
Publiée le
Ansible
Apache Airflow
Apache Spark
9 mois
300 €
Toulouse, Occitanie
Missions: Mon client recherche un DataOps / Data Engineer pour intervenir sur le service de maintenance prédictive, basé sur : un environnement on‑prem (Python, Airflow, Docker, GitHub CI/CD), un environnement Cloud Azure (Databricks, PySpark, ADF), une Service Platform pour les compagnies aériennes (application web). Assurer le MCO des environnements dev & production. Superviser et monitorer Databricks / Spark. Concevoir & maintenir des pipelines de données en production. Accompagner le déploiement d’algorithmes (optimisation performance & coûts). Améliorer les processus d’intégration / versioning dans la Service Platform.
Offre d'emploi
Data Engineer | Databricks
Hexateam
Publiée le
AWS Cloud
Databricks
Python
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Offre d'emploi
DATA ANALYST- Trade Finance
AVA2I
Publiée le
SQL
Xray
1 an
Île-de-France, France
Compétences fonctionnelles • Expérience en banque d'investissement et Trade finance indispensable • Capacité à appréhender les principes d'architecture et problématiques IT • Expérience en implémentation Agile • Connaissance des tests automatiques • Connaissances des portails Trade Finance (Swiftnet, Vialink, Konsole, etc.) Compétences comportementales • Travail en équipe et sens du service • Communication aisée à l'oral comme à l'écrit en environnement multiculturel • Capacité d'analyse et de synthèse • Organisation, dynamisme et rigueur Langues • Anglais opérationnel (usage régulier avec des équipes anglophones) • Français courant IT : SQL, si outils d'automatisation de tests comme selenium ou xray ou autre serait un plus
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6133 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois