L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 790 résultats.
Mission freelance
Architecte Cloud & Data – Projet Digital Manufacturing
Publiée le
Cloud
1 an
400-640 €
Île-de-France, France
Télétravail partiel
Dans le cadre de sa stratégie de transformation digitale, un grand groupe industriel recherche un Architecte Cloud & Data pour concevoir et mettre en œuvre une architecture moderne au service du digital manufacturing . L’objectif : moderniser et optimiser les processus de production via des solutions numériques avancées et une meilleure gouvernance de la donnée. 🧩 Missions principales Concevoir une architecture Cloud sécurisée, robuste et évolutive (Azure, AWS ou GCP). Intégrer des solutions de gestion et d’exploitation de la donnée (Data Lake, ETL, API, etc.) pour améliorer la performance des processus industriels. Collaborer étroitement avec les équipes internes (IT, OT, data, métiers) pour assurer une intégration fluide. Garantir la sécurité , la conformité et la scalabilité des solutions mises en place. Préparer l’architecture aux évolutions technologiques futures (Edge, IA, IoT industriel…).
Mission freelance
230795/Data OPS Niort Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana)
Publiée le
Control-M
Dynatrace
3 mois
320-350 £GB
Niort, Nouvelle-Aquitaine
Data Ops Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python Contexte : Mettre en place des outils et des méthodes d'industrialisation et d'automatisation de l’exploitation informatique dans des environnements Data (orchestration des données). • Définir et mettre en place des processus pour une meilleure collaboration/ coordination entre les équipes de développement et d'exploitation. • Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques d’infrastructure as code dans le cycle d'orchestration des données. • Intégrer et maintenir les CI/CD (intégration continue et livraison continue), les tests automatisés pour fluidifier les pipelines de développement et de déploiement. • Configurer les Runners Gitlab pour les différents projets afin d’assurer le déploiement continue. • Assurer la gestion des versions des configurations afin de reproduire facilement les déploiements. • Assurer le monitoring des assets en collaboration avec l'équipe d'exploitation. • Concevoir et maintenir des services d'assistance FINOPS (observabilité). • Fournir une formation et un support aux membres de l'équipe d'exploitation sur les bonnes pratiques, les outils et les technologies utilisées. • Rédiger et maintenir une documentation précise et à jour pour les configurations, les processus et les workflows des solutions mises en place. Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python
Offre d'emploi
Data Engineer
Publiée le
Collibra
Python
Snowflake
6 mois
Liège, Belgique
Télétravail partiel
Nous recherchons un Senior Data Engineer expérimenté pour rejoindre notre équipe Data. La personne sera responsable de la conception, du développement et de la maintenance de solutions de données robustes et scalables, tout en assurant la qualité et la gouvernance des données. Le candidat idéal maîtrise les environnements cloud, les pipelines de données et les outils de gestion des données modernes. Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables pour ingestion, transformation et intégration de données. Assurer la qualité, la sécurité et la gouvernance des données en collaboration avec les équipes Data & BI. Participer à la conception d’architectures data modernes sur Snowflake et autres plateformes cloud. Développer des solutions ETL/ELT avec Talend et automatiser les processus de traitement des données. Intégrer et orchestrer des flux de données en temps réel avec Kafka. Collaborer avec les équipes métiers pour comprendre les besoins en données et proposer des solutions adaptées. Mettre en place et suivre les métriques de performance des pipelines de données. Assurer la documentation technique et le respect des bonnes pratiques de développement. Compétences techniques requises Bases de données & Cloud : Snowflake, SQL avancé, modélisation de données, optimisation des requêtes. Gouvernance & Qualité des données : Collibra, gestion des métadonnées, data lineage. Langages de programmation : Python pour le développement de scripts ETL, automatisation et analyses. ETL / Intégration : Talend, conception et maintenance de flux ETL/ELT. Streaming & Event-driven : Kafka, gestion de flux en temps réel. Autres : Git, CI/CD, tests automatisés, bonnes pratiques de développement logiciel. Compétences comportementales Forte capacité analytique et rigueur. Autonomie et prise d’initiative sur les projets techniques. Excellente communication pour travailler avec des équipes transverses. Capacité à mentor et encadrer des profils juniors. Profil recherché Bac +5 en Informatique, Data ou équivalent. Minimum 5 ans d’expérience en Data Engineering dans des environnements complexes. Expérience avérée sur Snowflake, Talend, Kafka et Python. Bonne connaissance des processus de gouvernance et de qualité des données avec Collibra. Maîtrise des concepts d’architecture data moderne et des bonnes pratiques DevOps pour pipelines data. Télétravail : 2 jour / semaine Langues : Français, Anglais
Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)
Publiée le
Snowflake
6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Mission freelance
Data Engineer Google Cloud / BigQuery H/F
Publiée le
BigQuery
Google Cloud Platform (GCP)
2 ans
400-550 €
Rouen, Normandie
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer Google Cloud / BigQuery H/F à Rouen, France. Missions principales : Analyse, Conception et Modélisation Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données Réaliser la recette technique Assurer la qualité avec des tests de non-régression
Mission freelance
Chef de Projet Référentiels Data
Publiée le
Gestion de projet
Master Data Management (MDM)
Scrum
1 an
400-570 €
Île-de-France, France
Télétravail partiel
Mission de chefferie de projet sur des projets de référentiels Data tels que : Référentiel groupe, intermédiaires, clients. Pilotage de différents projets de référentiels Data : référentiel groupes, intermédiaires, clients. Rôle de scrum master sur un des référentiels. Piloter le projet et la conception sur les dimensions : Budget, planning, risques, suivi contractuel Animer les comités et assurer le reporting auprès des instances du pilotage Gérer, coordonner et assurer la transversalité des travaux avec les équipes concernées Piloter les équipes Tech des projets Les livrables : COPIL COMOP Suivi budgétaire Comité risques etc.
Mission freelance
Consultant (H/F) Senior Big Data & Cloud Architect Telecom
Publiée le
Data governance
Telecom
56 jours
Île de Clipperton, France
Télétravail partiel
Dans le cadre d’un diagnostic Data Lake et Cloud pour un grand opérateur télécom, nous recherchons un Data Architect Senior Big Data & Cloud. La mission consiste à évaluer l’architecture data existante, analyser la résilience et la performance des pipelines, identifier les points de friction, et proposer des recommandations pragmatiques. Le consultant interviendra sur l’écosystème Big Data (Hadoop, Spark, MapR, ClickHouse) et sur l’évaluation des workloads cloud (AWS, Azure, GCP). Compétences clés : Hadoop / Spark / MapR / ClickHouse (écosystèmes Big Data open source). Orchestration de pipelines : Airflow, Dagster… Logs, monitoring, optimisation de la performance. Expérience on-premise & cloud (AWS, Azure, GCP). Capacité à évaluer workloads cloud et produire une matrice de risques . Connaissances sécurité data (contrôles d’accès, RGPD, loi marocaine 09-08 un plus).
Mission freelance
Business Analyst Senior - Référentiels & Actifs IT (Data, BDD)
Publiée le
Agile Scrum
Business Process Model and Notation (BPMN)
CMDB
6 mois
420-570 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst Senior pour intervenir sur des projets stratégiques autour des référentiels applicatifs et des actifs IT d’un grand groupe bancaire. Vos missions : Recueillir, analyser et formaliser les besoins des directions métiers et IT. Concevoir les solutions fonctionnelles dans une démarche Agile et BDD (Behavior Driven Development) . Contribuer à l’évolution du référentiel des applications utilisé à l’échelle du groupe. Participer à la mise en place d’une plateforme de centralisation des actifs IT , en lien avec les applications et les processus métiers. Collaborer avec les équipes de développement et assurer le suivi des livrables fonctionnels et techniques . Contribuer à la modélisation des données et à la cohérence du SI global.
Mission freelance
Data Product Manager (Data Solution Architect)
Publiée le
Business Intelligence
Data analysis
ERP
6 mois
600-650 €
La Défense, Île-de-France
Télétravail partiel
En tant que membre de l'équipe Data as a Service Customer, vous serez en charge de conduire des études et de participer à la phase d’exécution projet. Profil recherché : Senior Responsabilités principales : Organiser la phase d’étude et recueillir les besoins auprès de l’ensemble des parties prenantes Planifier et animer des ateliers de travail avec les équipes métiers Rédiger la documentation de l’architecture fonctionnelle Réaliser la modélisation des données et concevoir les couches métier (Silver layer) Coordonner les différents contributeurs Data as a Service (architecte technique, data engineers, ingénieurs BI) Préparer le budget et le planning des phases de réalisation (build) et d’exploitation (run) Formaliser la proposition finale en vue du passage en phase projet (« Go to Project ») Compétences : Excellente communication en français et en anglais Maîtrise de l’analyse et de la modélisation des données (modélisation conceptuelle et physique) Bonne connaissance des systèmes ERP (SAP, QAD) et CRM (Salesforce) ; une expérience dans les systèmes de production est un plus. Méthodique, sens de l’organisation et approche structurée. Focus Client (capacité à mener des entretiens clients, réactivité et clarté dans les réponses).
Mission freelance
Data & IA - Migration des données
Publiée le
Big Data
SAP
23 mois
400-580 €
Paris, France
Télétravail partiel
Le projet est destiné à une entreprise leader de l’industrie des boissons, connue pour ses produits de haute qualité et sa présence mondiale Objectifs : Responsable du domaine de migration de données SAP Responsable de la mise en œuvre de E2E SAP S4H Missions : Planifier, coordonner et suivre l’avancement du flux de migration des données pour un S4 Greenfield. Suivi avec plusieurs équipes (équipe technique, équipe fonctionnelle, équipe commerciale) des extractions, des transformations et des activités de chargement. Suivi de la conception et de la construction des programmes de migration et rapports sur l’avancement des travaux. Définition de la stratégie de migration des données en alignement avec les autres flux, la mise en place de la planification des simulations, le suivi et le rapport sur l’exécution des simulations. Compétences : Accès aux données, Processus Data & AI, Stratégie Data & IA, Principes d’architecture des données, Taxonomie des données
Mission freelance
Consultant(e) Data Privacy & Compliance
Publiée le
Amazon S3
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE EXPERIENCE : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme,Consultant Spécialités technologiques : Gestion des projets,Migration de données,Conduite du changement,RGPD,Cybersécurité Secteurs d'activités Assurance Description et livrables de la prestation Description et livrables de la prestation Le consultant interviendra dans le cadre du renforcement de la gouvernance et de la conformité des données personnelles au sein d’un environnement international. La prestation vise à soutenir l’équipe Data Privacy dans la mise en œuvre opérationnelle des politiques de protection des données, la gestion des projets de conformité et la coordination des activités transverses entre les entités. Principaux axes d’intervention : Gouvernance et conformité - Adapter et déployer les politiques internes de protection des données conformément aux réglementations applicables (RGPD, etc.). - Maintenir le registre de traitement et assurer la conformité documentaire (consentements, notices, autorisations, etc.). - Contribuer à la mise en œuvre de contrôles permanents et au suivi des audits internes. -Participer aux comités de gouvernance et assurer le reporting vers les parties prenantes locales et centrales. Accompagnement des projets et support aux équipes - Apporter un appui opérationnel sur les projets impliquant des données personnelles : nouveaux produits, migrations, intégration d’outils IA, cloud, etc. - Réaliser ou contribuer aux Data Privacy Impact Assessments (DPIA) et évaluations de conformité. - Soutenir les activités de due diligence et d’évaluation fournisseurs (ex. Microsoft, Amazon, Cyber). - Participer à la mise en œuvre du processus de distribution des produits Data Privacy auprès de l’ensemble des entités. - Assurer un rôle d’interface avec les équipes en charge des incidents et des demandes d’accès. Transformation et conduite du changement - Accompagner les équipes dans la montée en maturité sur les enjeux Data Privacy. - Contribuer au déploiement de la plateforme OneTrust, notamment sur les aspects migration, paramétrage et intégration. - Promouvoir les bonnes pratiques et challenger les processus existants pour améliorer l’efficacité opérationnelle. Expertise souhaitée Compétences techniques et fonctionnelles - Minimum 5 ans d'expérience dans des fonctions de conformité, Data Privacy, gouvernance des données ou gestion de projets réglementaires. - Bonne compréhension du cadre RGPD et des pratiques de conformité opérationnelle. - Maîtrise ou connaissance avancée de la plateforme OneTrust (ou équivalent). - Familiarité avec les environnements IT, infrastructures, mainframe, et les enjeux de migration de données. - Capacité à collaborer efficacement avec les directions IT, cybersécurité, data et juridique. - Compétences en pilotage de projets transverses et en coordination d’acteurs multiples. Compétences comportementales - Anglais professionnel courant (environnement de travail international). - Esprit analytique, rigueur et sens de la priorisation. - Excellente communication et capacité à interagir avec des interlocuteurs de haut niveau. - Aptitude à instaurer la confiance tout en challengeant les pratiques établies. - Sens du résultat, autonomie et esprit de collaboration.
Offre d'emploi
Architecte Data / Cloud
Publiée le
Apache Airflow
AWS Cloud
Azure
2 ans
Paris, France
Télétravail partiel
Dans le cadre de la modernisation du SI Data, l’équipe recherche un Architecte Data Cloud pour concevoir et accompagner la mise en œuvre de plateformes Data multi-cloud (AWS, Azure, GCP), interconnectées aux produits numériques développés dans l’entreprise. La mission consiste à garantir la cohérence, la gouvernance et la performance des architectures Data Cloud. Missions principales Concevoir des architectures Data sur les environnements Cloud (AWS, Azure, GCP). Définir les standards d’intégration, stockage, orchestration et exposition de la donnée. Élaborer les architectures cibles (Data Lake, Data Mesh, Virtualisation, Catalogues) . Superviser la migration de systèmes On-Prem vers le Cloud (Oracle, Hadoop, etc.). Mettre en place les pipelines d’alimentation (Airflow, Trino, Spark, Glue, Data Factory…). Garantir la conformité (sécurité, RGPD, souveraineté, Cloud de Confiance). Participer aux jalons PMPG (cadrage, déploiement, bénéfices). Documenter les DAT, schémas techniques, POC et livrables d’architecture. Contribuer au transfert de compétences auprès des équipes internes.
Offre d'emploi
Ingénieur Système Senior – Audit Infrastructure & Data Centers - (H/F)
Publiée le
Hyper-v
ISO 27001
VMware
3 mois
Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
CONTEXTE DE LA MISSION : Dans le cadre de l’évolution et de la rationalisation de nos infrastructures IT, nous lançons une mission stratégique d’audit complet de nos data centers et environnements techniques. L’objectif : disposer d’une cartographie exhaustive, identifier les points de fragilité, et définir un plan d’évolution fiable et durable (rationalisation, migration, virtualisation, cloud hybride…). MISSIONS PRINCIPALES : Réaliser l’état des lieux complet des infrastructures : serveurs physiques & virtuels, environnements VMware/Hyper-V/Proxmox, stockage, sauvegarde, PRA/PCA, réseau et sécurité. Évaluer les performances, risques et redondances des environnements existants. Auditer les pratiques IT (sauvegarde, supervision, sécurité, conformité ITIL / ISO 27001 / ANSSI). Produire une documentation technique détaillée : cartographies physiques et logiques, inventaires serveurs, schémas d’architecture.
Offre d'emploi
BI / Big Data – Data Manager Senior
Publiée le
Apache Spark
Dash
Databricks
1 an
40k-56k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer / Data Manager senior pour un projet stratégique autour de l’automatisation des processus de production liés à l’actuariat et au Risk Management. L’objectif est de simplifier et industrialiser les traitements de pré et post-processing d’un outil de projection, actuellement très manuel et dispersé sur plusieurs outils. Missions principales : Concevoir et développer une solution intégrée dans Databricks pour automatiser la préparation et le traitement des données. Créer une interface utilisateur (via Streamlit, Gradio ou Dash) permettant de : Consulter, modifier et versionner les hypothèses avec workflow de validation. Orchestrer et automatiser les jobs de pré/post-processing. Sécuriser et tracer les échanges d’inputs/outputs (qualité, audit). Gérer le stockage des données dans des tables Delta avec schémas typés et versioning. Assurer la gestion des accès et le suivi de la qualité des données.
Mission freelance
RESPONSABLE D'APPLICATION - Confirmé (H/F)
Publiée le
Azure Data Factory
Databricks
ITIL
4 mois
400-490 €
Châtillon, Île-de-France
Télétravail partiel
Responsable d'application au Datalab : o Assure et coordonne les activités de maintenance corrective et évolutive des applications dont il est responsable. o Il est responsable de la qualité de service délivrée dans le respect des contrats (support, qualité, sécurité, …) vis-à-vis des entités métiers en s’appuyant sur les équipes transverses. o Il est aussi le garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de l’application. o Il est en interface avec le métier et répond aux demandes d’évolution ou des projets en lien avec le Responsable SI Métier et le Chef de Projet. CONCEPTION D'ÉVOLUTION DU SYSTÈME D'INFORMATION o Est l'interlocuteur des métiers / DOSI lors de la vie courante des systèmes o Est responsable de l'évolution des applications dont il a la charge o Gère les demandes, les priorise, et gère les lots d'évolutions de ses applications en lien avec le Responsable SI métier et le Responsable de Domaine/Pôle o Participe aux cadrages et projets d'adaptation et d'évolution du SI o Effectue l'analyse fonctionnelle des besoins et détermine les impacts sur les interfaces avec les produits environnants dans le système d'information de l'entreprise o Suit les roadmaps de l'Editeur, en analyse les impacts sur son périmètre et anticipe et pilote les montées de versions MISE EN ŒUVRE DU SYSTÈME D'INFORMATION o Conduit, dans le cadre des projets, l'évolution cohérente de son système depuis la conception jusqu'à la mise en service o Réalise les spécifications de ses applications o S’assure de la qualité attendue des développements réalisés o Contribue à la stratégie de recette des projets sur son périmètre o Est responsable de la définition, avec le métier/DOSI et l'équipe Test Factory, des plans de tests nécessaires à la recette de ses applications o Pilote les livraisons de corrections en cas d'anomalies détectées sur ses applications QUALITÉ DU SYSTÈME D'INFORMATION (PERFORMANCE, COHÉRENCE, COÛT, DÉLAI? ) o Applique les normes, méthodes et outils de référence définis au sein du Domaine ou de la Direction de référence o Est le garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de ses applications o Est responsable de la gestion documentaire des applications o S'assure de la production et du suivi des indicateurs de performances de ses applications en lien avec le Responsable de Domaine/Pôle, le Chargé de Pilotage SI o S'assure que les SLA définis contractuellement avec l'éditeur et les Domaines sont suivis et respectés
Mission freelance
Consultant Data Migration – SAS / SQL – Contexte Épargne & Transformation SI
Publiée le
SAS
SQL
2 ans
400-580 €
Île-de-France, France
Télétravail partiel
Description de la mission : Dans le cadre d’un programme de transformation du système d’information épargne , nous recherchons un consultant confirmé spécialisé en migration de données pour intervenir sur la construction et l’industrialisation d’un modèle de données pivot entre les systèmes existants et un nouvel outil de gestion. Vos missions : Analyser les traitements et modèles de données existants sous SAS Enterprise Concevoir et faire évoluer le modèle de données Pivot servant d’interface entre les systèmes source et cible Développer et industrialiser les flux SAS (pré-traitement, transformation, injection) Réaliser les tests unitaires et suivre les anomalies Participer au passage de run de migration et assurer le suivi des compteurs Rédiger la documentation technique et les spécifications fonctionnelles détaillées
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Stratégie épuisement des fonds jusqu'à la retraite
- Quelles nouvelles fonctionnalités aimeriez-vous voir sur Free-Work ?
- Identifier les partenaires directs des Grands Groupes (sans intermédiaires)
- Offre archivée
- SASU est ce que le pv d'ag existe ou seulement décision de l'associ unique?
- Job Consultant Service now Suisse. 200 euros par jour!
1790 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois