L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 432 résultats.
Mission freelance
Consultant Senior ETL/ Data Engineering (H/F) - Freelance
GROUPE ARTEMYS
Publiée le
Conception
6 mois
400-500 €
76600, Le Havre, Normandie
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Nous recrutons dès à présent un Consultant Senior ETL/ Data Engineering H/F en Freelance . Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions pour l'un de nos clients au Havre (76) auprès duquel vous aurez la possibilité d'effectuer les tâches suivantes : Réaliser un audit complet (état des lieux, identification des points de blocage) Formuler des recommandations concrètes sur l’architecture, les workflows et les usages Accompagner les équipes dans la mise en œuvre des préconisations Vos missions : Phase 1 – Audit : Analyse des deux environnements ETL existants Évaluation des workflows, de l’architecture et des usages Identification des axes d’amélioration Rédaction d’un audit structuré avec recommandations actionnables Phase 2 – Accompagnement : Participation à la refonte des workflows et de l’architecture Aide à la mise en œuvre des solutions recommandées Accompagnement des équipes internes (montée en compétences) Contribution à la clarification des usages ETL vs API Le profil que nous recherchons : Minimum 8 ans d’expérience en ETL / Data Engineering Forte capacité d’analyse et de prise de recul (vision architecture et workflows) Expérience sur plusieurs solutions ETL (capacité de comparaison et projection) Solide culture data engineering (architecture, conception, refonte) Bonne maîtrise des bases de données (relationnelles type MySQL et NoSQL type Cassandra) Bonne compréhension des API et capacité à distinguer les usages ETL vs outils API La connaissance de NiFi est un plus Vous êtes reconnu.e pour votre posture de conseil, votre force de proposition, votre vision stratégique, votre pédagogie et votre orientation solutions Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Échange opérationnel : Je propose votre candidature au référent (Commercial, SDM, coordinateur…) du compte client, qui échange ensuite avec vous afin de valider votre adéquation avec le besoin. Proposition de mission : Si tout colle, on propose votre CV à notre client ! Conditions de rémunération : Statut : Indépendant / Freelance TJM : Entre 400€ et 500€ (Selon votre expertise) Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
Data Scientist / MLOps H/F
JEMS
Publiée le
45k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un(e) Data Scientist capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Gourou de la donnée, vous vous amusez à faire parler les données et à les mettre au service des entreprises. Vous êtes donc à la croisée d'enjeux fonctionnels et stratégiques : Vous aurez la charge de : • Étudier des données en possession de l'entreprise • Définir et récupérer des données pertinentes à extraire et à traiter en lien avec la production de l'entreprise, la vente ou encore liées aux données clients • Développer des algorithmes permettant d'améliorer les résultats de recherches et de ciblages • Élaborer des modèles prédictifs afin d'anticiper l'évolution des données et tendances relatives à l'activité de l'entreprise Référence de l'offre : ybvz12nuz4
Mission freelance
ETL / Data Streaming Project Manager
Comet
Publiée le
Apache Kafka
API
CRM
6 mois
400-570 €
Île-de-France, France
Contexte de la mission Au sein de l’équipe Architecture et Intégration dans un contexte international et multiculturel, vous aurez pour missions principales de gérer et piloter les lignes de services intégration ETL : Talend (Cloud - plate-forme hybridé) et Data Streaming ( Kafka Confluent - Cloud) Objectifs et livrables Le support / suivi / maintenance de l’existant (Projet CRM / Annuaire / PIM) Accompagnement dans la création de nouveaux projets (analyser le besoin des clients, le challenger, cadrage technique : définition d’architecture et conception technique des flux) Piloter l’équipe en Inde (en charge des développements / tests / déploiements) Gérer un plan de charge et proposer des plannings Administration et suivi opérationnel de notre plateforme Talend et des composants On Prem (upgrade, monitoring, résolution de problème ponctuel) Administration et suivi opérationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation pour ces 2 plateformes Etablir, partager et faire partager les bonnes pratiques (configuration / développements …) Compétences demandées Connaissances CRM Salesforces - Élémentaire Talend Data Integration studio V8 - Expert API & format fichier Json, Xml, Csv - Confirmé management équipe - Confirmé Java8+ - Confirmé Linux/Unix - Confirmé KAFKA - Confirmé SQL et Base de données - Confirmé Source management ( Gitlab) - Confirmé Niveau de langue Français - Courant Anglais - Courant
Mission freelance
Product Owner - Transaction Regulatory Reporting
NEXORIS
Publiée le
Data quality
1 an
560-650 €
Île-de-France, France
Notre client, Banque de Finance et d'Investissement, recherche un Product Owner Transformation Reporting Réglementaire – Capital Markets (H/F) dans le cadre d'une longue mission. Dans le cadre d’un programme pluriannuel de transformation et de sécurisation des reportings réglementaires transactionnels au sein des activités de marchés, la mission consiste à piloter la backlog et garantir la conformité réglementaire (MIFID II, EMIR, SFTR…) dans un environnement international. Rôles stratégiques : - Traduction des exigences réglementaires (MIFID II, EMIR, SFTR…) en user stories et critères d’acceptation métier - Priorisation des livrables selon les échéances réglementaires, l’impact business et les risques - Coordination des parties prenantes : IT, Compliance, Front Office, Middle & Back Office Rôles opérationnels : - Gestion et priorisation de la backlog, animation des cérémonies agiles - Définition et validation des solutions fonctionnelles de reporting - Contrôle du respect des formats techniques (ISO 20022, FpML) et des délais de transmission réglementaire - Encadrement des Feature Owners et des équipes en charge des expressions de besoins et des recettes - Pilotage des dépendances entre systèmes Front Office, post-trade et outils de reporting Rôles de pilotage : - Définition et suivi des KPIs (taux de rejet, complétude des données, délais de soumission) - Reporting aux instances de gouvernance (avancement, risques, alertes) - Accompagnement au changement et support aux équipes de production Livrables - Backlog priorisée et roadmap de transformation - User stories et critères d’acceptation formalisés - KPIs de pilotage et tableaux de bord - Documentation fonctionnelle et supports d’accompagnement au changement
Offre d'emploi
DATA ENGINEER GCP - SALESFORCE (450€ MAX)
BEEZEN
Publiée le
Google Cloud Platform (GCP)
Salesforce
1 an
40k-45k €
320-440 €
Île-de-France, France
● Formation Bac+5 (école d’ingénieur ou université) orientée informatique, ou expérience équivalente. ● Bonne connaissance de l'écosystème Salesforce (modèles de données Marketing, Financial Cloud, Data Cloud). ● Ingénierie Data : Maîtrise de SQL et de Python pour le traitement de flux. ● API & Automation : Expérience dans la consommation d’API et l'utilisation d'orchestrateurs (Airfl ow/Composer). ● Soft Skills : Rigueur méthodologique, capacité à comprendre les processus métier bancaires et esprit d'équipe. GCP/DBT Livrables : ● Connecteurs API opérationnels et monitorés. ● Scripts de transformation et de chargement (ETL) documentés. ● Tableaux de bord de suivi des fl ux (alerting et logs de transfert). ● Documentation technique du mapping des objets Salesforce vers BigQuery.
Mission freelance
PO data/BI - xp Supply Chain
FF
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
1 an
Paris, France
Bonjour à tous, Je suis à la recherche d’un Product Owner Data/BI orienté technique (background technique dans l'idéal) qui maitrise : Obligatoire : - L’environnement GCP – BigQuery - Expérience(s) côté Supply chain - Vous avez une bonne connaissance de Power BI. - Vous êtes rompus aux techniques de l’agilité. Démarrage : ASAP / fin juin Lieu : Paris Télétravail : 2 jours par semaine Durée de la mission : 1 an ou + Si votre profil correspond, n'hésitez pas à postuler ! A bientôt,
Mission freelance
Data Scientist (H/F)
Nicholson SAS
Publiée le
Data analysis
Data science
Large Language Model (LLM)
8 mois
680 €
Île-de-France, France
Informations Pratiques Secteur : Télécommunications Localisation : Arcueil (94) – Rythme hybride (2 jours de présence sur site par semaine) Démarrage : Immédiat (ASAP) Durée : Jusqu’au 31/12/2026 (Visibilité long terme) TJM max : 680 € Contexte de la Mission Suite à la mise en production réussie d'une solution de relation client innovante basée sur l'intelligence artificielle ( Speech-to-Speech ), le groupe amorce une phase de déploiement et d'industrialisation sur l'ensemble de ses canaux digitaux. L'objectif est de renforcer les équipes Data pour accompagner cette montée en charge selon deux axes stratégiques : l'optimisation du monitoring et l'automatisation de la qualité. Vos Missions Rattaché(e) aux équipes Data Science, vous intervenez sur le cycle de vie de la solution dans une logique de passage à l'échelle : Optimisation du Monitoring : Perfectionner les outils de suivi et d'analyse de performance de la solution IA en production. Mise en place du Test Ops : Concevoir et déployer une " Test Case Factory " augmentée par l'IA. Automatisation : Utiliser la Data Science pour générer des scénarios de tests automatisés à chaque nouvelle version logicielle afin de garantir la robustesse du système. Industrialisation : Participer activement au "scaling" de la solution sur les différents points de contact digitaux du client. Compétences Techniques Cœur de métier : Data Science appliquée. Spécialités : Traitement du langage naturel (NLP), intégration de modèles de langage (LLM) et architectures agentiques. Méthodologie : Sensibilité aux problématiques de mise en production (MLOps / Test Ops). Soft Skills Capacité à travailler dans un environnement technologique de pointe. Rigueur méthodologique pour assurer la fiabilité des processus de tests. Force de proposition pour l'amélioration continue des outils de monitoring.
Offre d'emploi
OPS DATALAKE Senior Cloud Public/Privé
Deodis
Publiée le
AWS Cloud
Azure
CI/CD
12 mois
54k-59k €
450-530 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à son expertise pour le Centre d'Expertise Data L’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : Assurer le maintien en conditions opérationnelles des plateformes Datalake on prem / AWs / Azure Gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux Contribuer à l’implémentation/automatisation des solutions Effectuer les actions de déploiement sur les environnements (int, preprod et prod) Contribuer à l’amélioration continue des outils d’exploitation et de déploiement Communication auprès du product owner
Mission freelance
Data Analyst Performance
CAT-AMANIA
Publiée le
Confluence
JIRA
Tableau Desktop
12 mois
300-450 €
Lyon, Auvergne-Rhône-Alpes
Dans un contexte de pilotage de la performance IT et de suivi des activités opérationnelles, vous intervenez en tant que Data Analyst afin d’analyser les indicateurs liés au turnover IT (ressources, activité, performance, incidents) et d’identifier des leviers d’optimisation. Vous êtes en charge du suivi, de l’analyse et de la restitution des données à destination des équipes métiers et techniques, avec une forte autonomie et un rôle clé dans la prise de décision. Suivre et analyser les indicateurs de performance liés au turnover IT (entrées/sorties, staffing, charge, performance opérationnelle) Concevoir, maintenir et faire évoluer des tableaux de bord de pilotage (KPI, reporting opérationnel et stratégique) Identifier les anomalies, signaux faibles et dérives dans les données (qualité, performance, organisation) Produire des analyses détaillées et formuler des recommandations d’optimisation Consolider et fiabiliser les données issues de sources multiples Animer des réunions de restitution (comités de pilotage, comités opérationnels) Collaborer avec les équipes métiers et techniques pour activer des leviers d’amélioration Challenger les processus existants et proposer des axes d’optimisation data-driven
Mission freelance
Architecte Data IA
ematiss
Publiée le
IA
6 mois
400-650 €
Nantes, Pays de la Loire
Prestation d'Architecture au sein d'une nouvelle plateforme Data IA chez notre client. La mission consiste : - de par son expertise à accompagner le client dans cette transition technologique - à conseiller sur la nouvelle nouvelle architecture cloud-native et orienté self-service en intégrant des solutions modernes telles que Kafka, Iceberg, Trino et S3. - à accompagner l'équipe en charge du socle service data pour challenger les choix d'architecture autour des solutions d'observabilité offertes par OpenMetadata, SODA et/ou Great Expectations par exemple. - à participer à la conception d'architectures robustes et évolutives, tout en garantissant la conformité RGPD et la sécurité des données. - à travailler en étroite collaboration avec les Product Owners, Tech Lead, Data Stewards et DevOps pour assurer l'intégration harmonieuse des nouveaux produits. Qualifications demandées : Apache Kafka,Cloud Architecture.
Offre d'emploi
Architecte Solution Data
VISIAN
Publiée le
ArchiMate
TOGAF
50k-62k €
Paris, France
Description et livrables de la prestation : Concevoir, valider et faire respecter l'architecture technique et fonctionnelle des solutions pour assurer leur conformité aux standards, à la stratégie IT-DATA et aux exigences de sécurité. Garantir la cohérence, la performance, la réutilisation et la gestion des risques tout au long du cycle de vie des projets. Vous aurez la responsabilité de sujets portant sur la Vision 360 Client, le MDM, etc... au sein de l'équipe Architecture Solutions Data - IA - KYC - Client Pour cela, voici les missions clés : Conception de solutions : Élaborer des dossiers de design (DDS), en intégrant les standards (refcards) et l’impact data, IA, sécurité, et digital. Pilotage et accompagnement : S’assurer de l’implémentation conforme, suivre la livraison et gérer les écarts ou remédiations. Participation à l’élaboration d’une cible d’Architecture Data en collaborant avec les architectes d’entreprise et product managers Animation transverse et gouvernance : Participer aux instances stratégiques, animer la communauté d’architectes autour de vos sujets, promouvoir les bonnes pratiques. Sécurité et conformité : Intégrer les enjeux de cybersécurité, de protection des données, et de conformité réglementaire. Défendre et promouvoir la stratégie d’architecture : principes « Tous Architectes », mise à jour du référentiel, défense de la cible d’architecture et des enjeux métier/données. Analyser et répondre aux RFP : Identifier, challenger et co-construire des solutions adaptées, auditables, et déployables. Veille technologique et marché : Maintenir une connaissance à jour des innovations (cloud, IA, Data, sécurité, microservices, API, DevSecOps).
Mission freelance
Data Ingénieur H/F
Insitoo Freelances
Publiée le
ETL (Extract-transform-load)
HFSQL
JIRA
2 ans
380-511 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Ingénieur H/F à Hauts-de-France, France. Contexte : L’équipe Data Engineering recherche un développeur flux Stambia / Semarchy xDI confirmé pour renforcer ses capacités de conception et d’industrialisation de flux de données. Cette équipe intervient dans un environnement fonctionnel riche couvrant plusieurs domaines stratégiques (supply, commerce, customer, etc.). L’activité se concentre exclusivement sur des échanges de données opérationnels, hors périmètre décisionnel. Vous évoluerez dans une équipe expérimentée, sur des enjeux variés de BUILD (conception, création, évolutions) et de RUN (exploitation, optimisation, astreinte). Les missions attendues par le Data Ingénieur H/F : La mission se structure de la manière suivante : ● Analyse des besoins : ○ Comprendre les besoins en matière d'intégration de données en collaborant avec le Product Owner et les parties prenantes. ● Conception : ○ Concevoir des flux complexes en utilisant l’outil Stambia / Semarchy xDI. ○ Capacité à modéliser une base de données. ● Développement : ○ Développer les flux en appliquant les meilleures pratiques de développement. ○ Produire des scripts (Python, Beanshell, Shell...) pour enrichir ou personnaliser des traitements spécifiques. ○ S’appuyer sur Git pour faciliter la collaboration entre développeurs. ● Tests : ○ Tester ses développements (performance, robustesse, non-régression...) pour garantir qualité et fiabilité. ● Documentation : ○ Documenter et partager les connaissances. ○ Réaliser des spécifications techniques. ● Maintenance : ○ Assurer la maintenance (suivi de production, monitoring, support, astreinte) des flux de données et les mises à jour en cas de besoin.
Mission freelance
Data Steward H/F
Insitoo Freelances
Publiée le
JIRA
Microsoft Excel
2 ans
200-402 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Steward H/F à Hauts-de-France, France. Contexte : Garantir la structuration, la fiabilité et la performance des données produits intégrées au configurateur, afin d’assurer une expérience digitale cohérente, performante et adaptée aux besoins des marchés, des clients et des collaborateurs en magasins. Les missions attendues par le Data Steward H/F : 1. Structuration et gouvernance des données produits ● Collecter, analyser et structurer les données des produits configurables en lien avec les fournisseurs et le marché. ● Assurer l’intégration et la mise à jour des données produits et tarifaires (prix, options, évolutions de gamme), en garantissant leur fiabilité, leur cohérence et leur conformité aux règles métier. ● Être garant(e) de la qualité, de la cohérence et de la pérennité des référentiels data du configurateur. ● Définir et maintenir les règles de compatibilité et de cohérence entre produits. ● Modéliser et unifier les données multi-fournisseurs afin d’assurer leur intégration dans le configurateur. ● Identifier les attributs produits nécessaires à l’animation des parcours digitaux et coordonner leur complétude avec les parties prenantes (PILCO, marchés, fournisseurs…). ● Documenter les règles métier et référentiels afin d’assurer leur lisibilité, compréhension et transmission. 2. Pilotage du peuplement et performance produit ● Être responsable du peuplement des produits au sein du configurateur. ● Définir et suivre les indicateurs clés de performance (KPI) liés aux produits et aux parcours. ● Réaliser les analyses de performance et identifier les axes d’optimisation. ● Proposer et formaliser des plans d’action en lien avec les marchés. ● Contribuer à l’amélioration continue de l’offre et de l’expérience sur le configurateur.
Offre d'emploi
Ingénieure ou ingénieur en Data science - ALTERNANCE
█ █ █ █ █ █ █
Publiée le
Python
SQL
Lyon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Engineer / Architecte Data (GCP)
ESENCA
Publiée le
Architecture
Big Data
BigQuery
1 an
Lille, Hauts-de-France
Contexte Dans le cadre d’un projet à forte composante data, la mission consiste à développer et mettre en œuvre une architecture applicative avec un enjeu majeur de fiabilisation des modèles de calcul . Vous interviendrez au sein d’une équipe existante pour consolider, améliorer et industrialiser les solutions déjà en place , tout en contribuant à la montée en compétence collective. Missions Concevoir et faire évoluer l’ architecture applicative et data Développer et industrialiser les traitements et jobs data Réaliser les tests d’intégration et garantir la qualité des livrables Fiabiliser les modèles de calcul et les résultats produits Valider et assurer la robustesse des interfaces entre systèmes Rédiger et maintenir la documentation d’architecture Garantir la cohérence du système d’information : assurer la bonne communication entre les applications respecter les standards et l’architecture globale Participer à l’amélioration continue des solutions existantes Partager les connaissances et accompagner les équipes Livrables attendus Dossier d’architecture (documentation, validation de l’existant) Développements et création de jobs data Validation des interfaces et flux Documentation technique à jour Environnement technique Google Cloud Platform : Compute, BigQuery, Big Data Python GitHub Terraform Kafka Dataflow (souhaité) Soft skills Esprit analytique et rigoureux Sens du service et orientation client Capacité d’adaptation à des environnements évolutifs Esprit d’équipe et partage de connaissances Autonomie et proactivité Langues Français : professionnel (impératif) Anglais : lu et écrit (secondaire)
Offre d'emploi
Chargé d’Affaires Data Centers CVC
AGH CONSULTING
Publiée le
Finance
Planification
6 mois
Massy, Île-de-France
Contexte Dans le cadre du développement d’activités liées aux Data Centers , nous recherchons un(e) Chargé(e) d’Affaires CVC pour piloter des projets techniques en environnement critique. Vous interviendrez sur des installations à forte exigence de performance (refroidissement, climatisation, continuité de service), en lien direct avec les équipes techniques et les clients. Missions Assurer la préparation, le pilotage et le suivi technique des projets CVC Planifier les interventions en coordination avec le client Participer à la conception technique des solutions (dimensionnement, optimisation) Piloter la rentabilité des affaires (suivi budgétaire, marges) Contribuer au développement du chiffre d’affaires Coordonner et encadrer les équipes opérationnelles Assurer le reporting d’activité auprès de la direction / conduite de travaux Veiller au respect des normes de sécurité et de qualité sur les chantiers
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Facturation électronique 04 : Factures erronées / fausses factures…
- Facturation électronique 01 : Rappel du calendrier !
- Recherche d'un avocat spécialisé en droit des affaires ou en droit des contrats
- Facturation electronique 2026
- Seuil tva micro entreprise
- ESN qui paient en fin de mois sans attendre le paiement client ?
2432 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois