L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 753 résultats.
Mission freelance
Data Engineer DENODO
Publiée le
Dataiku
1 an
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) Data Engineer maîtrisant Denodo , capable d’assurer à la fois le MCO/MCS de la plateforme et la création de vues pour les équipes projets. ✅ Assurer le MCO / MCS de la plateforme Denodo ✅ Optimiser les performances et l’architecture de la plateforme ✅ Administrer Denodo : monitoring, tuning, gestion des connexions, sécurité ✅ Créer et optimiser des vues Denodo pour les projets métiers ✅ Accompagner les équipes n’ayant pas de compétences Denodo internes ✅ Contribuer à améliorer la virtualisation de données et la qualité de service ✅ Participer au support central et garantir une plateforme fiable et performante
Offre d'emploi
Product OWNER DATA / BI (Compétence Salesforce Obligatoire)
Publiée le
Salesforce CPQ
3 ans
40k-55k €
380-530 €
Boulogne-Billancourt, Île-de-France
La Direction des Technologies d’un grand groupe média français conçoit, opère et fait évoluer les systèmes techniques (IT et diffusion) qui soutiennent l’ensemble de ses activités. Elle travaille en étroite collaboration avec les différents métiers du groupe (publicité, contenus, antennes, production, entertainment…) et intervient sur des enjeux clés de support et de transformation digitale . Avec plusieurs centaines de collaborateurs, cette direction accompagne chaque année de nombreux projets stratégiques, innovants et à fort impact business . Le Pôle Produits Publicitaires est en charge de la conception, du développement et de la maintenance des outils de la régie publicitaire, organisés autour de 7 grands produits structurants : Commercialisation : prospection, négociation, contractualisation Offre : catalogue, tarification, inventaire, optimisation Achat : commande, valorisation, arbitrage, programmation Diffusion : gestion des créations, panachage, conducteur Gestion financière : valorisation, prévisions de chiffre d’affaires, facturation Portail client : digitalisation de la relation client BI / Data : entrepôt, consolidation et diffusion des données Dans ce contexte de forte transformation digitale , le pôle recherche un Product Owner CRM – Data Client BtoB & Prospection pour piloter des produits au cœur de la stratégie commerciale et data. Vous êtes animé(e) par les enjeux CRM BtoB , la valorisation de la donnée client et l’optimisation des process de prospection ? Vous aimez faire le lien entre vision business, besoins métiers et delivery produit dans un environnement agile et exigeant ?
Offre d'emploi
Développeur Python - Automatisation et Outils de Sécurité Réseau
Publiée le
Flask
Python
1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Les opérations de sécurité informatique font partie de la fonction IT Risk afin d'assurer la disponibilité, l'intégrité, la confidentialité et l'audit des données. Cela comprend la responsabilité du niveau infrastructure en s'assurant que les principes de sécurité sont appliqués sur le réseau et sur les droits étendus des utilisateurs, avec un dispositif de surveillance et de contrôle en place. Les opérations de sécurité IT examinent et évaluent l'architecture en termes de réseau et d'applications, approuvent et mettent en œuvre les règles sur les pare-feux, et constituent l'expertise sécurité impliquée dans les missions et projets d'infrastructure. Descriptif du poste Le poste concerne la personne en charge de l'automatisation des tâches opérationnelles et de l'amélioration du carnet de commandes interactif de l'équipe. Les principales tâches sont, sans s'y limiter : Participation au projet de développement d'outils permettant l'automatisation des tâches opérationnelles Utilisation des API des différents outils (Tufin, ServiceNow, Playflows, IV2, etc.) Développement de nouvelles fonctionnalités pour le carnet de commandes de l'équipe selon les besoins exprimés Relecture, qualité, sécurité et versioning du code Connaissance des architectures API, Rest Conception et mise à jour de la documentation en anglais Estimation de la complexité des tâches Présentation des développements réalisés afin de garantir la conformité aux spécifications Motivation, implication, force de proposition et engagement au sein de l'équipe Profil recherché
Mission freelance
Data Engineer Python / AWS / Airflow / Snowflake
Publiée le
Apache Airflow
AWS Cloud
Python
12 mois
100-550 €
Île-de-France, France
Télétravail partiel
Conception & développement de pipelines Implémenter de nouveaux flux de données batch et streaming . Développer des pipelines ETL / ELT en Python et Airflow pour les traitements planifiés, et via NiFi ou Kafka pour les données en temps réel. Assurer l’intégration et la mise à disposition des données dans Snowflake . Industrialisation & bonnes pratiques Participer aux revues de code , aux tests unitaires et d’intégration . Contribuer à l’ industrialisation des pipelines avec des pratiques CI/CD robustes. Maintenir la documentation technique à jour et contribuer à l’amélioration continue des process. Maintenance & optimisation Garantir la maintenance corrective et évolutive des flux existants. Participer à la mise en place du monitoring , des alertes et des bonnes pratiques d’exploitation. Optimiser les performances, la fiabilité et la qualité des traitements de données.
Offre d'emploi
Développeur IA
Publiée le
IA Générative
Nosql
Python
12 mois
42k-47k €
400-420 €
Montpellier, Occitanie
Télétravail partiel
Vos missions seront le développement de solution IA génératives, le tests et le déploiement de ses dernières. Vous travaillerez sur plusieurs projets en simultanée. Nous recherchons quelqu’un de motivé pour travailler sur des solution innovante en perpétuelle évolution, avec une capacité à s'inscrire dans un collectif (partage, collaboration) Compétences demandées : IA GEN Landing Zone Python Back end & data science Frameworks : TensorFlow Libraries : scikit-learn, pandas, NumPy, PyKrige, Pyspark NoSQL, mySQL
Mission freelance
Un(e) Data Analyste - Maintenance évolutive d'une application de reporting
Publiée le
IBM DataStage
Microsoft Power BI
Microsoft SQL Server
6 mois
400-480 €
Bois-Colombes, Île-de-France
Télétravail partiel
Data Analyste Expert - Maintenance évolutive d'une application de reporting Contexte : Nous recherchons pour un(e) consultant(e) Data Analyste BI confirmé(e) pour assurer la maintenance évolutive et contribuer à l'amélioration continue d'une application de reporting interne dédiée au suivi commercial. Cette application joue un rôle clé en collectant des données stratégiques et en les mettant à disposition des utilisateurs internes afin de suivre et analyser la performance commerciale. Missions : En tant que Data Analyste confirmé, vous serez chargé(e) de la gestion opérationnelle de l’application de reporting et participerez activement à un projet stratégique visant à optimiser le processus de collecte et de mise à jour des données. Ce projet a pour objectif de simplifier les flux de données, réduire au minimum les traitements manuels, et accélérer le cycle de mise à jour des informations tout en garantissant une qualité de données irréprochable. Plus spécifiquement, vous serez amené(e) à : • Assurer la maintenance évolutive de l'application existante, en veillant à son bon fonctionnement et à l’intégration des évolutions nécessaires pour répondre aux besoins internes. • Contribuer à l'amélioration du processus de reporting en travaillant sur l’automatisation de la collecte de données et l'optimisation des traitements, afin de simplifier le processus tout en préservant la fiabilité et la précision des données. • Collaborer avec l’équipe interne pour définir les besoins fonctionnels et techniques, et pour déployer des solutions adaptées à l’amélioration de l'analyse de la performance commerciale. • Apporter une expertise technique et fonctionnelle pour l’optimisation des outils de reporting et pour le développement de nouvelles fonctionnalités. • Prendre en charge la maintenance des solutions déployées en apportant des améliorations continues et en veillant à leur adéquation avec les exigences métiers. • Effectuer une analyse détaillée des données afin d’identifier des axes d’amélioration dans les processus existants et proposer des solutions efficaces et adaptées aux enjeux commerciaux de l’entreprise. • Assistance aux utilisateurs en faisant preuve de pédagogie pour les autonomiser. Aide à la gestion du changement. Compétences techniques et linguistiques requises Profil recherché : • Expertise confirmée en Business Intelligence, avec une maîtrise des outils d’extraction et de traitement de données, et des technologies associées. • Maitrise de l’utilisation de SQL pour sélectionner des données • Compétences solides en analyse de données, avec une capacité à traduire des besoins métiers en solutions techniques. • La connaissance d’outils de reporting serait un plus. • Capacité à travailler de manière autonome et en équipe. • Rigueur et souci de la qualité des données, avec une forte orientation résultats. Les solutions BI mise en œuvre actuellement chez le client sont basées sur les technologies suivantes : • Oracle • IBM Datastage • Power BI • SAP Business Object 4.2 • Outil de data virtualization comme Denodo • Sqlserver Compétences requises • Une expérience significative d’un minima de 4 années dans l’intégration de systèmes décisionnels • Une expertise concrète en environnement BI • De solides connaissances ainsi qu’une expérience significative dans la manipulation de données. • Des compétences fonctionnelles • Un fort sens de l’analyse et de la pro activité • Capacité rédactionnelle • Excellent relationnel • Maîtrise de l’anglais indispensable (lu, parlé, écrit) Autres compétences appréciées • Connaissance du métier de l’assurance Durée de la Prestation Régie, pour une période de 6 mois renouvelable.
Mission freelance
Ingénieur Data Power BI (H/F)
Publiée le
BI
6 mois
400-500 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍 Lieu : Nantes (44) + déplacements mensuels à La Roche Sur Yon (85) 🏠 Télétravail : 2 jours par semaine ✔ Démarrage Février 2026 - mission de 6 à 9 mois ✏ Freelance, portage salarial ou CDI 🌎Contexte international : Anglais lu et écrit indispensable 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Ingénieur Data Power BI (H/F) afin d'accompagner un de nos clients. Au sein de la DSI du client, tes responsabilités principales sont : Former un binôme avec un chef de projet interne Participer au projet de déploiement de l'ERP SAP Business One au niveau Européen Implémenter le volet Data BI de l'ERP Migrer le legacy DataServices vers Power BI Participer à la mise en place de MS Fabric
Offre d'emploi
Data Analyst - PowerBI
Publiée le
Conception
ETL (Extract-transform-load)
Microsoft Power BI
1 an
40k-45k €
300-500 €
Toulouse, Occitanie
Télétravail partiel
Nous recherchons un Data Analyst expérimenté pour intervenir sur la conception, le développement et l’industrialisation de dashboards Power BI destinés à des équipes internes. La mission couvre l’ensemble de la chaîne data : recueil des besoins, récupération et intégration des données, modélisation, alimentation de l’entrepôt de données, création de tableaux de bord, livraison et support aux utilisateurs. Vous participerez également à l’administration de l’environnement Power BI et au suivi des activités dans un outil de ticketing. Vous interviendrez sur des données liées au support informatique et aux cycles de vie des incidents. Le rôle nécessite une excellente maîtrise de SQL, Power BI et SSIS, ainsi qu’un esprit analytique, une rigueur forte et une réelle capacité de communication. Compétences techniques SQL – Expert Power BI – Expert SSIS – Confirmé / Important PL/SQL ETL Environnements On-Premise (pas d’Azure / pas de Data Factory) Conception et modélisation de données Intégration de données dans un entrepôt Conception de bases agrégées
Offre d'emploi
Développeur Python & IA
Publiée le
Angular
Django
PostgreSQL
3 ans
50k-60k €
450-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un consultant développeur Python ayant une bonne connaissance de l’IA pour une mission chez un de nos clients dans le secteur de l’asset management. La mission sera de longue durée (3 ans), avec un démarrage ASAP, et 2/3 jours de télétravail par semaine. Tâches et missions : - Création d’applications cloud native sur des systèmes distribué pour les outils dédié à l’IA générative, - Construction d’outils pour aider à automatiser plusieurs processus métier, - Participation au support et à l’onboarding des business case sur la plateforme, - Création de services d’intégration de Données, - Prendre en charge et faire évoluer les outils internes basés sur des systèmes distribués cloud natifs, - Intégrations de solutions IA aux outils existants, - Participation à l’analyse des données et à la rédaction des spécifications fonctionnelles et techniques, - Intervention dans le projet (méthodologie AGILE), - Gestion des incidents post-production et correction du code, - Enrichir l’automatisation des tests, - Respect des délais impartis. - Contribuer à l’évolution et au maintien de la plateforme, pour l’intégration des use case IA dans la plateforme - Faire des applications à l’échelle, avec du passage en prod et du suivi de production, dans le respect des critères de qualité pour la production. Stack technique : Django React sur la partie front pour intervenir sur la solution interne pour le Big data et l’IA. L’équipe est composée de 12 personnes et est divisée en 2 parties : la première sur l’innovation technologique IA, l’autre partie est en charge du maintien de l’évolution de l’outil qui vient mettre à l’échelle les innovations d’IA. Ils déploient des solutions à l’ensemble d’Amundi et aux externes également.
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Mission freelance
Administrer moteurs bases de données et plateformes data
Publiée le
Google Cloud Platform (GCP)
Oracle
PostgreSQL
1 an
370-390 €
Tours, Centre-Val de Loire
Télétravail partiel
Missions principales L’ingénieur de Production data assure : L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. La gestion des incidents et participe à la résolution des problèmes Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) Maintien en conditions opérationnelles des plateformes Suivi et amélioration des performances (mémoire, disques, index, requêtes), Stratégies de sauvegarde, restauration et supervision La gestion des accès et création des comptes autorisés à se connecter aux plateformes De la veille technologique La gestion documentaire du périmètre Astreinte
Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)
Publiée le
MySQL
18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
Mission freelance
Développeur CRM Salesforce Marketing Cloud
Publiée le
Data Lake
Salesforce Sales Cloud
1 an
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
Recherche – Développeur CRM Salesforce Marketing Cloud (Nantes | 2 à 3 jours/semaine) Dans le cadre d’une consultation sur le contrat-cadre AST & Digital , nous recherchons un Développeur CRM Salesforce Marketing Cloud (expérimenté ou senior). 📅 Démarrage prévu : 4 décembre 2025 ⏱️ Rythme : mi-temps (2 à 3 jours par semaine) 📍 Présence sur site : lundi, mardi et jeudi 🎯 Missions principales Développer, maintenir et intégrer des solutions Salesforce Marketing Cloud : Emails, Push, Journey Builder, Automations, Datorama. Créer et personnaliser des parcours clients et des contenus dynamiques (HTML, AMPscript, responsive design, gestion de Data Extensions, Interactive Email Form). Implémenter des API et SDK SFMC sur applications mobiles natives, gérer la synchronisation CRM/Datalake et les processus automatisés RGPD . Assurer la gestion opérationnelle , les releases , le monitoring et l’ optimisation des performances (tracking, délivrabilité, réputation IP). Apporter support et conseil aux équipes métiers et digitales, dans un environnement agile et collaboratif.
Mission freelance
Team Lead Support Applicatif AEM
Publiée le
Adobe
Adobe Experience Manager (AEM)
1 an
400-500 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement d’un dispositif de support applicatif, nous recherchons un(e) Team Lead Support Applicatif AEM / DAM . Vous interviendrez en tant que référent(e) support sur les plateformes Adobe Experience Manager (AEM) et Adobe Digital Asset Management (DAM Cloud) . Votre rôle combinera pilotage opérationnel , encadrement d’équipe et intervention directe sur les tickets , afin d’accompagner les utilisateurs internes (équipes régionales, contributeurs métiers, utilisateurs internationaux). Vous serez garant(e) de la qualité de service, de la fluidité des échanges avec les équipes produit et de la résolution efficace des incidents. Missions principales Assurer le support fonctionnel et applicatif des utilisateurs AEM et DAM Piloter et encadrer une équipe de support (2 personnes) Gérer les accès, rôles et habilitations sur les plateformes Analyser, qualifier et prioriser les incidents et demandes utilisateurs Traiter directement les tickets complexes via ServiceNow Escalader les anomalies vers les feature teams lorsqu’il s’agit de bugs et en assurer le suivi jusqu’à résolution Garantir la continuité de service et le déblocage rapide des situations critiques Être force de proposition pour améliorer les processus de support et la collaboration avec les équipes techniques
Mission freelance
Data Engineer AWS
Publiée le
AWS Cloud
PySpark
Python
12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Mission freelance
MASTER DATA FASHION/RETAIL
Publiée le
SAP
6 mois
Paris, France
Télétravail partiel
Bonjour, Je cherche activement un consultant SAP Master Data Fashion/Retail Côté production Construction de core model SAP S/4HANA Tâches MOE Cadrage Conception MOA Lien avec metier Leadership Compétences requises : Master Data SAP (min 5 ans exp) Fashion FMS / Retail Notion des 3 dimensions est un plus S/4HANA : au moins un projet ETE Expérience conception générale indispensable, paramétrage, custo Orienté best practice Langues : français et anglais mandatory Date de début : ASAP Durée : +6 mois renouvelables (visibilité 1 an+) Localisation + Rythme + Déplacements : 3 à 4 jours par semaine sur site en Ile de France
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Utiliser Qonto pour créer la microentreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- Calcul de l'indemnité de la rupture conventionnelle
- Gestion d’entreprise : astuces pour freelances IT
2753 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois