L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 336 résultats.
Mission freelance
POT8789 - Consultant(e)s Senior MOA SI / Product Owner Data sur Saint Denis
Publiée le
MOA
6 mois
400-550 €
Saint-Denis, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, des Consultant(e)s Senior MOA SI / Product Owner Data sur Saint Denis Expérience : Confirmée en maîtrise d’ouvrage SI, idéalement dans des environnements complexes ou en Asset Management. Missions principales : Analyse et rédaction des besoins métier Identifier les données impliquées et leurs typologies. Définir les indicateurs de qualité et prioriser les enjeux. Élaboration des spécifications fonctionnelles Formaliser les besoins en spécifications générales et détaillées. Pilotage et exécution des recettes Définir la stratégie, les cas de test, constituer les jeux de données et suivre les résultats. Assurer les tests fonctionnels et de non-régression. Maintien en condition opérationnelle (MCO) Garantir la continuité et l’actualisation des offres SI existantes. Product Owner / Backlog Management Identifier et prioriser les besoins fonctionnels et les évolutions de données. Rédiger users stories et spécifications détaillées. Suivi du portefeuille et comitologie Produire la météo projet, suivre le budget, la feuille de route et la commande de production annuelle. Communication et conduite du changement Diffuser l’information, rédiger articles ou supports de démonstration, et accompagner les utilisateurs. Outils collaboratifs Maintenir SharePoint et produire des indicateurs via Power BI. Profils recherchés : Consultant(e) senior MOA SI, autonome et proactif, capable de gérer des sujets complexes. Expérience confirmée en environnement complexe, idéalement en Asset Management ou gestion de portefeuille SI. Capacités d’analyse, de synthèse, d’organisation et d’animation de réunions. Maîtrise des outils collaboratifs (SharePoint, Teams), Power BI et méthodologies Agile/Product Owner. Capacité à vulgariser les sujets techniques et à produire des livrables clairs et rigoureux.
Offre d'emploi
Senior Data engineer AWS
Publiée le
Terraform
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Mission freelance
Technico-Fonctionnel / Scientific Data Engineering - Expert DataOps - R&D - 1117
Publiée le
6 mois
500-530 €
Paris, France
Télétravail partiel
Objectifs de la mission : Le Passenger Cognition Lab modélise les comportements des voyageurs afin d’optimiser les services digitaux et l’information voyageur en Île-de-France. Le Lab recherche un Ingénieur de Recherche DataOps capable de concevoir et enrichir une infrastructure de données permettant des études scientifiques sur la cognition des voyageurs. Enjeux et rôle du consultant - Traduire les besoins théoriques des chercheurs en pipelines de données robustes et architectures cloud performantes (AWS). - Garantir l’intégrité scientifique des traitements : gestion des biais statistiques, fiabilité des séries temporelles, reproductibilité. - Concevoir des environnements d’expérimentation Cloud fiables, orientés production de résultats scientifiques. - Documenter et structurer les travaux pour assurer leur pérennité. - Agir comme le bras technique du Lab dans un contexte de recherche. Environnement & contexte : R&D agile manipulant des volumes de données massifs et hétérogènes. Stack : AWS, Python (Scientific Stack), conteneurisation. Interaction clé avec l’IT Groupe pour favoriser le portage et l’exploitation des données dans d’autres projets. Livrable : Instrumentation des données pour la recherche (Scientific Data Engineering) Architecture Cloud pour l'expérimentation (Scientific Ops) Formalisation technique et Support à la valorisation Obligatoire : Thèse de doctorat (Data, ML ou Mathématiques Appliquées) garantissant sa capacité à dialoguer avec des chercheurs, couplée à une expérience opérationnelle forte en Ingénierie logicielle/Cloud. Expériences entre 7 et 9 années.
Mission freelance
Data Engineer / Python / Azure MS Fabric (H/F)
Publiée le
Azure
Microsoft Fabric
PySpark
8 mois
550-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer / Python / Azure pour l'un de ses clients qui opère dans le secteur de l'énergie Description 🧩 Contexte de mission Dans le cadre du renforcement de l’équipe Data, nous recherchons Data Engineer spécialisé en Python, PySpark et Microsoft Fabric , évoluant dans un environnement Azure Cloud . Les consultants seront responsables de la conception, du développement et de la mise en production de pipelines et architectures data au sein d’un contexte orienté performance, scalabilité et industrialisation. 🎯 Missions principales & rôle Le Data Engineer interviendra sur : La collecte et l’analyse des besoins métiers et utilisateurs La conception d’architectures de données robustes et scalables Le développement de pipelines de données (ingestion, transformation, modélisation) La mise en production des pipelines et leur optimisation continue La maintenance et l’évolution des architectures existantes Le respect des bonnes pratiques et standards d’ingénierie data 📌 Objectifs Concevoir une architecture data fiable, évolutive et documentée Industrialiser les pipelines pour garantir performance et qualité Assurer un haut niveau de disponibilité et de maintenabilité des solutions Accompagner les équipes internes dans la compréhension et l’usage des pipelines Contribuer à la structuration et à la maturité data de l’organisation
Mission freelance
Chef de projet géomarketing
Publiée le
CRM
Data analysis
Data governance
12 mois
520-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) chef de projet Géomarketing pour piloter l’industrialisation de nos outils géomarketing et la mise en place d’un reporting KPI efficace, afin de renforcer la prise de décision et l’optimisation des opérations commerciales et logistiques. Missions principales : Industrialisation des outils géomarketing Analyse des besoins métiers et identification des outils existants. Standardisation et automatisation des processus géomarketing. Déploiement de solutions adaptées aux différentes entités du groupe. Formation et accompagnement des utilisateurs internes. Mise en place de reporting KPI Définition et structuration des indicateurs clés de performance (KPI) géomarketing. Création de tableaux de bord interactifs et automatisés pour le suivi des activités. Mise en place de processus de collecte, de consolidation et d’analyse des données. Pilotage de la performance et identification des leviers d’optimisation. Pilotage de projets transverses Coordination avec les équipes commerciales, marketing, logistique et IT. Suivi du planning, des coûts et des livrables. Garantir la qualité et la fiabilité des données utilisées dans les analyses. Profil recherché : Expérience confirmée en géomarketing et gestion de projets data / BI. Maîtrise des outils SIG (QGIS, ArcGIS…) et des solutions de data visualisation (Power BI, Tableau…). Bonne compréhension des enjeux commerciaux et logistiques dans un contexte multi-pays. Capacité à industrialiser des processus et à créer des reportings automatisés. Esprit analytique, rigueur et sens de la communication. Livrables attendus : Outils géomarketing industrialisés et documentés. Tableaux de bord KPI opérationnels et automatisés. Processus standardisés pour le suivi de la performance géomarketing.
Mission freelance
Consultant Expert Data IA
Publiée le
Powershell
SAS
1 an
550-600 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Consultant Expert Data IA. Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Benchmark, bonnes pratiques sur les besoins en Data pour une IA, modèles IA (création/réutilisation, entrainement, évaluation métier, finops et projection, contraintes bancaires et cyber sur l'IA, interconnexions de produits IA majeurs pour structurer les bons travaux à lancer en priorité pour des livraisons fréquentes et cohérentes)... Tâches : Construire la feuille de route du stream Data IA avant fin 2025 pour certains projets transformants notamment dans la thématique Marketing en collaboration avec les bon acteurs du Client dans le PP Data et au delà.
Mission freelance
Expert Analyste data sénior
Publiée le
Confluence
JIRA
Slack
12 ans
400-510 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) Expert(e) Analytics pour rejoindre la Direction Data de notre client. Missions principales Cadrage et accompagnement des équipes dans l’implémentation des outils data : identification des pré-requis, risques, parties prenantes, facteurs clés de succès et indicateurs de performance Pilotage des projets de fond : déploiement et suivi de l’outil de monitoring automatisé, enrichissement du tracking site-centric Monitoring automatisé et analyse des alertes Coordination avec les équipes Data, Technique, Offres numériques et RGPD Reporting et amélioration continue des outils et indicateurs Profil recherché 5+ ans d’expérience sur tracking / analytics Maîtrise de Piano, Médiamétrie, Netvigie / Seenaptic, TagCommander Compétences en gestion de projet (Jira, Confluence, Slack) Parfaite maîtrise du français Présence sur site : environ 50% Si vous êtes intéressé(e) ou connaissez quelqu’un qui pourrait l’être, n’hésitez pas à me contacter pour plus d’informations. Cordialement,
Mission freelance
Data Engineer GCP
Publiée le
DBT
Google Cloud Platform (GCP)
18 mois
460-530 €
Rennes, Bretagne
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer GCP pour l'un de ses clients dans le secteur de la restauration à Rennes. Missions principales : Développer et maintenir des pipelines de données fiables et évolutives. Assurer un regard critique sur les données et garantir leur qualité ( quality by design ). Mettre en place des contrôles et validations sur les données, comprendre les contraintes métiers et techniques. Collaborer avec les équipes pour estimer le reste à faire , le chiffrage des tâches et la planification des sprints. Travailler dans un environnement agile (Scrum/Kanban), avec suivi dans Jira . Participer à la mise en place des bonnes pratiques DevOps : Git, CI/CD . Collaborer avec les équipes techniques et métiers pour garantir la pertinence des données. Atouts supplémentaires : Expérience industrielle ou traitement de données en temps réel (Pub/Sub). Capacité à proposer des améliorations ou innovations dans les pipelines et la qualité des données.
Mission freelance
Chef de Projet Métier (Customer Data Platform & évolutions UNICA)
Publiée le
Gestion de projet
12 mois
620-640 €
Paris, France
Télétravail partiel
Chef de Projet Métier (Customer Data Platform & évolutions UNICA) Missions principales : · Piloter la mise en place d’une Customer Data Platform (CDP) et accompagner les évolutions de la solution UNICA. · Contribuer au cadrage fonctionnel et au déploiement opérationnel du projet, en lien avec les équipes Data, CRM et métiers. · Garantir l’alignement entre les besoins business, les enjeux data et les choix techniques. · Coordonner les ateliers, animer les instances projet et assurer le reporting auprès du management. · Accompagner la conduite du changement et la montée en compétences des équipes concernées. Profil recherché : · Expertise en CRM et forte expérience dans la mise en œuvre d’une CDP ou de projets Data à fort enjeu marketing. · Solide culture data et compréhension des enjeux de la personnalisation, segmentation et exploitation de la donnée client. · Capacité à travailler en transversal, à coordonner des parties prenantes variées (IT, marketing, data, éditeurs…). · Autonomie, force de proposition, rigueur et qualités de synthèse. · Maîtrise des environnements de type UNICA est un plus.
Mission freelance
Développeur Data / Big Data – ClickHouse – Finance de Marché
Publiée le
Apache Spark
Hadoop
Jenkins
3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission : Au sein d’une Direction des Systèmes d’Information d’un grand groupe international, vous intégrerez une équipe en charge du pilotage de la liquidité et de la gestion du collatéral . Cette direction mène plusieurs projets stratégiques liés à la conformité réglementaire (Bâle III, FSB, IRRBB) et au pilotage interne des risques structurels . Le bénéficiaire recherche un profil disposant d’une forte expertise technique pour accompagner l’évolution d’un socle applicatif basé sur la technologie ClickHouse® et contribuer à la restitution des données de risques structurels au niveau groupe. Missions principales : Traduire les besoins métiers en solutions techniques robustes et performantes Assurer le développement, la documentation, les tests et le déploiement du code Appliquer les bonnes pratiques internes : code review, pair programming, procédures de test et de déploiement Respecter les jalons projet et les budgets définis Contribuer à l’ industrialisation et l’optimisation des outils existants Participer aux activités de run et de build , avec possibilité d’astreintes Fournir un support technique aux équipes métier et aux utilisateurs finaux Livrables attendus : Analyse du besoin et étude d’impact technique Estimation des charges et planification des travaux Conception, développement et documentation du code Évolution, optimisation et automatisation du code existant Code reviews et tests unitaires, d’intégration et de non-régression Déploiement sur les environnements de test et de production Démonstration des livrables aux utilisateurs et support aux phases de validation (UAT) Suivi et surveillance des traitements de production
Offre d'emploi
Data Analyst
Publiée le
Microsoft SQL Server
Microsoft SSIS
Tableau Desktop
Paris, France
Télétravail partiel
En tant que Data Analyst au sein de la division e-banking d’une des principales institutions financières européennes, vous serez chargé·e de transformer des données complexes en insights exploitables, afin d’orienter les décisions stratégiques et l’innovation dans la banque digitale. Vous travaillerez en étroite collaboration avec des équipes pluridisciplinaires, en exploitant des outils analytiques avancés pour améliorer l’expérience client, optimiser la performance opérationnelle et soutenir la conformité et la sécurité dans un environnement dynamique et exigeant. Vos missions principales Concevoir, développer et maintenir des tableaux de bord et rapports interactifs pour soutenir l’intelligence décisionnelle. Extraire, transformer et charger (ETL) les données issues de divers systèmes bancaires via SSIS, en garantissant leur qualité et leur cohérence. Réaliser des analyses approfondies sur des bases MSSQL : requêtage, modélisation, nettoyage. Collaborer avec les parties prenantes pour recueillir les besoins métier et les traduire en solutions techniques. Surveiller et évaluer les flux de données, résoudre les problèmes et proposer des améliorations. Documenter les processus, standards et méthodologies pour assurer la transparence et la reproductibilité. Réaliser des analyses ponctuelles pour soutenir la conformité réglementaire, la gestion des risques et le développement produit. Participer à la migration et à l’intégration de systèmes legacy vers des plateformes analytiques modernes.
Mission freelance
Data ingénieur ( H/F) - Full remote
Publiée le
Apache Spark
Big Data
Google Cloud Platform (GCP)
1 an
370-500 €
France
Télétravail 100%
Contexte de la mission : Intégrez une équipe BI dédiée aux données de la relation client. Vous travaillerez dans un environnement en pleine transformation, avec une migration vers le cloud GCP en cours. Vos responsabilités : Intégrer une équipe agile et contribuer à la gestion et à l’évolution des données BI orientées CRM. Participer à la migration des environnements BI traditionnels vers GCP . Développer, maintenir et optimiser les flux de données (SQL, Big Data). Assurer la qualité, la performance et la fiabilité des traitements. Collaborer avec les équipes métiers et techniques pour répondre aux besoins de reporting et d’analyse.
Offre d'emploi
Data Engineer GCP
Publiée le
Apache Airflow
DBT
DevOps
12 mois
40k-48k €
370-420 €
Cesson-Sévigné, Bretagne
Télétravail partiel
Contexte de la mission : Dans le cadre des travaux à réaliser nous recherchons un profil Data Engineer GCP confirmé. Tâches à réaliser : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM) Compétences recherchées : Obligatoires : GCP DBT Big Query Devops Optionnelles : DataStage Expérience nécessaire : 5 années d’expérience sur la plateforme GCP (profil ITS : P22/P23) Langues : Français
Mission freelance
POT8770 - Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble
Publiée le
ETL (Extract-transform-load)
6 mois
250-500 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble Contexte projet : Mise en place de la nouvelle organisation data dont l’objectif primaire est de préparer et d’organiser les moyens pour répondre aux enjeux de valorisation, d’exploitation et de gouvernance de la donnée d’entreprise. Objectif Projet : La mise en place de la Data Fabric : La conception et l’implémentation d’un socle d’architecture robuste, scalable et modulaire La définition du plan de migration L’intégration d’un ensemble de briques technologiques Le déploiement et le suivi opérationnel du plan de migration. Exigences profils : Profil Data Manager avec des fondations solides en Architecture cloud et urbanisme du décisionnel Une expérience préalable en tant qu’Architecte ou chef de projet sur des enjeux similaires est nécessaire Bonne compréhension des enjeux de gouvernance et de management de la donnée Connaissance du socle technologique (infrastructure, architecture) et maîtrise des briques applicatives impliquées (ETL, ELT, ESB, Data WareHouse, LakeHouse, Catalogue). Capacité à piloter des projets en mode multi-acteurs (partenaire externe, métiers, IT, sous-traitants). Excellente communication et capacité à fédérer les parties prenantes. Anglais courant Environnement Technique : Data Pipeline (ETLT, CDC) ESB / ETL (messagerie, artefact de transformation custom) Stockage (Warehouse, Lakehouse) Data Product Catalog (gouvernance & distribution) Data Quality Management Data Stewardship Data Catalog (Semantic Layer) Automations Monitoring, lineage & administration partagés
Mission freelance
Product Owner Data Expert
Publiée le
Agile Scrum
Architecture
Azure Data Factory
12 mois
600-630 €
Île-de-France, France
Télétravail partiel
Contexte de la mission La mission s’inscrit dans un programme de refonte des traitements de données Ventes et Client, visant à fiabiliser et valoriser les données au service des métiers. L’objectif est de transformer les jeux de données existants en Data Products clairs, robustes et pérennes, tout en optimisant la valeur de l’ensemble décisionnel actuel. L’environnement est hybride , combinant : des composants legacy à maintenir et fiabiliser, essentiels au pilotage opérationnel, et des chantiers de refonte et de modernisation menés dans une logique produit et Data Mesh . La mission s’inscrit dans un contexte de modernisation de la stack data (architecture Lakehouse) et de montée en maturité des pratiques Produit au sein des équipes Data. Missions principales Le prestataire assurera le rôle de Product Owner Data , en pilotant une équipe pluridisciplinaire (Produit, Tech, Data). Ses responsabilités incluront : Conduire la refonte et la valorisation des données Ventes , du cadrage des besoins métiers jusqu’à la livraison des Data Products. Piloter la roadmap produit data dans une logique Data Mesh : gouvernance, qualité, exploitabilité. Maintenir l’existant (legacy) en garantissant la continuité de service et la fiabilité des indicateurs clés. Collaborer étroitement avec le Product Manager et les autres PO Data pour aligner la vision et assurer la cohérence transverse. Animer les échanges métiers autour de la valeur d’usage, des indicateurs de succès et de la qualité des livrables. Contribuer activement à la communauté Produit & Data , en partageant les bonnes pratiques et en favorisant la montée en maturité collective. Livrables attendus Roadmap produit claire et priorisée (vision, jalons, backlog). Cadrages et spécifications fonctionnelles des Data Products (règles de gestion, contrats d’interface, indicateurs de succès). Plan de maintien et d’amélioration continue du legacy (cartographie, fiabilisation, suivi qualité, documentation). Pilotage agile et reporting régulier sur l’avancement et les risques. Documentation consolidée (catalogue, dictionnaire de données, fiches produit, gouvernance).
Mission freelance
Product Owner Data Sénior Localisation : Paris– La Défense (TT possible : 2 jours / semaine)/ko
Publiée le
Méthode Agile
6 mois
400-470 £GB
Paris, France
Télétravail partiel
Product Owner Data Sénior Localisation : Paris – La Défense (Télétravail possible : 2 jours / semaine) Objectif de la mission Assurer le Product Ownership des socles Data pour le programme Data Performance, afin de : maximiser la valeur business, garantir l’adoption des produits par les métiers, sécuriser la performance des traitements et le passage en RUN. Le consultant sera également amené à collaborer avec le Product Manager transverse et à accompagner la transformation Data dans l’organisation. Missions principales 1. Product Ownership des socles Piloter le backlog des socles et prioriser les évolutions en fonction des besoins métiers. Rédiger user stories et spécifications fonctionnelles pour les fonctionnalités critiques. Assurer la cohérence fonctionnelle avec les objectifs métiers : CA, performance commerciale, nouveaux services marketing. Préparer le passage en RUN et accompagner l’adoption des produits par les métiers. Suivre les traitements existants, le legacy, les référentiels et les adhérences. 2. Collaboration avec le Product Manager transverse Participer à la structuration et pilotage industriel des socles Data . Contribuer à la roadmap Data à 3 ans , et à la mise en place du PI Planning . Déployer des KPIs orientés valeur business pour mesurer l’impact des socles et des cas d’usage. Préparer les supports de COPIL / CEB / COPROJ , incluant avancement, risques et indicateurs de valeur. 3. Accompagnement de la transformation Data Décliner les orientations de la transformation (audit plateforme Data) dans les pratiques des socles et zones business. Suivre les pilotes New SAPO et Distribution , sécuriser leur mise en œuvre et généraliser les bonnes pratiques. Contribuer à la conduite du changement : acculturation, formation, communication et montée en maturité des équipes métiers et SI. Livrables clés Backlog et priorisation des évolutions des socles User stories / spécifications fonctionnelles Roadmap Data à 3 ans KPI de valeur business et supports de pilotage pour COPIL / CEB Documentation sur la transformation Data et accompagnement au changement Profil recherché Expérience Product Owner Data dans des grands groupes ou environnements complexes Connaissance en transformation Data et Data Office Capacité à travailler avec les métiers et la DSI pour traduire les besoins en solutions Data opérationnelles Maîtrise des concepts modernes de data architecture , notamment Data Mesh et gestion de référentiels Expérience Agile / PI Planning / gestion de roadmap Data Orientation forte valeur business , capacité à mesurer et suivre l’impact des socles et produits Data Idéalement : connaissance environnement transport (données clients, données commerciales / financières)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Utiliser Qonto pour créer la microentreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- Calcul de l'indemnité de la rupture conventionnelle
- Gestion d’entreprise : astuces pour freelances IT
1336 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois