Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
DevOps GCP Full remote (Maghreb)
skiils recrute un(e) Consultant(e) DevOps GCP (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel(le), son rôle consistera à contribuer à des projets Cloud et DevOps en apportant son expertise sur les tâches suivantes : Développer et maintenir des pipelines CI/CD automatisés pour les applications de Carrefour, en utilisant Terraform et GCP, comme un chef d’orchestre orchestrant chaque déploiement avec précision. Garantir la stabilité et la performance des infrastructures Cloud, tel un gardien vigilant de la forteresse GCP. Collaborer avec les équipes de développement et d’infrastructure pour assurer une intégration et un déploiement continus des applications. Diagnostiquer et résoudre les problèmes techniques liés aux infrastructures Cloud. Participer à l’amélioration continue des processus et des standards DevOps. Développer et documenter ses solutions pour assurer la pérennité et la qualité du code. Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support).

Offre d'emploi
Développeur GCP expérimenté (H/F)
🎯 Missions principales Concevoir et développer des applications cloud-native sur GCP. Définir, implémenter et documenter des API performantes et sécurisées (REST, microservices). Garantir la continuité des processus métiers lors de la refonte ou de l’évolution applicative. Participer à la structuration et au traitement des flux de données (intégration, ETL, BigQuery). Collaborer avec les équipes produit et IT pour transformer les besoins en solutions techniques. Assurer la qualité du code et la maintenabilité (tests, revues de code, CI/CD). Participer aux choix techniques et contribuer à l’amélioration continue des pratiques.

Mission freelance
Développeur Python GenAI (F/H)
Objet de la prestation : Dans le cadre du programme Augmented, une équipe Lab Tech-genAI, en charge d’étudier les capacités des innovations genAI, est en création. Cette équipe vient renforcer les équipes genAI déjà en place. Le Lab Tech-genAI s’appuie sur l’environnement Google Cloud Platform (GCP). Le développement est réalisé en Python. Les composants techniques sont réalisés dans une architecture micro-services. Ils sont à développer, à intégrer dans l’écosystème, à maintenir et à faire évoluer. La prestation concerne principalement : - Le développement de services permettant de tester des nouveautés genAI et comment les utiliser à l’échelle - l’intégration de nouveaux services d’agent dans l’architecture existante, - L’amélioration et l’optimisation des composants d’ingestion de données non structurées - L’évaluation d’outils de dev basés sur l’IA - Le développement de cas d’usage IA innovant et généralisables Livrables : Contribuer au développement des services du Lab Tech-Genai, évaluer et tester des solutions innovantes Genai et proposer des guidelines d’intégration de ces solutions aux autres équipes Genai du Groupe Sont attendus les livrables suivants : - Le code des développements demandés, conçus et mis en œuvre en production de manière satisfaisante - Le code des tests unitaires et d’intégrations automatisés - La documentation du code expliquant les programmes et algorithme - Le développement de l’application est en méthode Agile/Scrum avec des sprints de 2 semaines. - Participation à l’élaboration des User Stories - Conception, développement et mise en production d’applications nécessaires aux fonctionnalités souhaitées - Mise en place de tests unitaires, d’intégration et fonctionnels bout-en-bout - Participation aux discussions d'équipe autour de solutions techniques et d'idées de produits dans les revues de conception, la programmation en binôme et la revue de codes, participation à l’élaboration de bonnes pratiques sur le projet

Mission freelance
Développeur Python/infra
L'équipe Database est composé de 20 personnes, et divisée en 2 équipes : 1 pole de DBA (14 personnes ) et 1 pole (6 personnes) de développe qui construite et maintient DBAPI, la plateforme de gestion des BDD (création de projets, gestion du finops, de la sécurité, suivi de la performance, gestion des accès, DRP...). Au sein de notre équipe Cloud Databases, tu seras un renfort dans notre équipe en charge du build et RUn de DBAPI. Tu es un développeur full stack confirmé, Curieux, force de proposition. Tu maitrise le python et a une forte appétence pour les sujets cloud et d'infrastructure. Tu as de la connaissance des principaux systèmes de BDD et souhaite approfondire tes compétences dans ce champ d'activité, sans toutefois en devenir un expert

Offre d'emploi
Développeur Power BI Sénior
Nous recherchons actuellement un profil sénior Développeur Power BI pour une mission de longue durée chez un de nos clients dans le secteur du luxe. La mission démarrera ASAP, au sein des locaux du client situés dans Paris Intramurros. 2 jours de télétravail seront prévus pour cette mission, fixé par l'équipe en fonction des semaines. Les différentes tâches consisterons en : • Analyse, chiffrage, conception sur les nouveaux besoins de reporting • Développements avancés (Dashboard, Semantic Model, Power automate) • Support Power BI L3 sur les incidents • Formation des utilisateurs à Power BI et au self-service en Français / Anglais

Offre d'emploi
DevOps GCP
Missions principales Concevoir, déployer et maintenir des infrastructures GCP (Compute Engine, GKE, Cloud Storage, BigQuery, Pub/Sub, VPC, IAM, etc.). Mettre en place et gérer des pipelines CI/CD pour les projets cloud (Cloud Build, GitHub Actions, Jenkins, GitLab CI). Automatiser le déploiement et la gestion des ressources via Infrastructure as Code (Terraform, Deployment Manager, Ansible). Assurer la supervision, le monitoring et l’alerting (Stackdriver, Cloud Monitoring, Prometheus, Grafana). Implémenter les bonnes pratiques de sécurité GCP et assurer la conformité (IAM, gestion des secrets, audit). Collaborer avec les équipes Développement et Data pour optimiser l’architecture cloud et les processus de déploiement. Participer à la résolution d’incidents et à l’amélioration continue des environnements cloud.
Mission freelance
Tech Lead IA/Python/GCP
Métier et Fonction Études & Développement Développement Spécialités technologiques IA générative Reporting Monitoring Type de facturation Assistance Technique avec un taux journalier Compétences techniques et outils Technologies : Java, Python, genAI, Spring Boot, Google Cloud Platform Méthodes / Normes : SAFe Langues : Anglais Description de la prestation Dans le cadre d’un nouveau programme, la Direction Informatique recherche un lead développement pour concevoir et faire évoluer des agents IA innovants (notamment Retrieval-Augmented Generation - RAG) intégrés à une plateforme self-service. La solution utilise GCP et les dernières évolutions de GenAI pour permettre aux utilisateurs métiers de créer, personnaliser et utiliser des assistants et workflows IA générative, optimisant ainsi processus et systèmes d'information. Le développement en Python et Java concerne une architecture micro-services, avec missions principales de conception, intégration, maintenance, évolution et sécurisation des agents IA. La prestation inclut : Assurer la couverture fonctionnelle, la collaboration entre agents, le respect des standards, la sécurité, le monitoring, et la performance Garantir la stabilité et la scalabilité de la plateforme en collaboration avec DevOps Respecter les délais de remise en marche du SI Contribuer à la vision produit, piloter la conception, valider la qualité, et assurer la veille technologique Livrables attendus Reporting de l’état des agents et technologies Capitalisation des problématiques et solutions dans les standards internes (REX, eDEX, knowledge base) Code développé et en production conforme aux critères d’acceptation Codes des tests unitaires et d’intégration automatisés Documentation technique détaillée des programmes et algorithmes
Mission freelance
Data Engineer (GCP/Talend)
• Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Offre d'emploi
Architecte data / IA (F/H)
Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 500 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Votre rôle Nous recherchons un(e) Architecte Data & IA (FH) pour accompagner l’un de nos clients, acteur majeur du secteur assurantiel. Le poste est à pourvoir ASAP pour une durée de 6 mois dans le cadre d’un contrat CDD / Freelance chez TALEO , et est situé à Paris . Suite à cela, un recrutement interne en CDI chez notre client est privilégié. Contexte Vous intégrez un environnement dynamique traitant de la Data, de l'IA et adressant l'ensemble des métiers de l'entreprise. Vous travaillerez dans un écosystème Data comportant, entre autres, les meilleurs outils Data modernes du marché. Vous serez au cœur de projets de transformation, qui ont démarré fin 2023 et vont s'opérer sur les années à venir dans le cadre d'un plan stratégique très ambitieux. Responsabilités : Vous exercerez les missions d'Architecte Data : · Prendre en charge les dossiers d'architecture des projets en garantissant la cohérence avec la stratégie, le cadre d'architecture et la Roadmap du Patrimoine Data. · Accompagner les Product Owners/Managers et les équipes métiers dans l'évolution du Patrimoine Data. · Identifier les évolutions d'architecture induites par les nouveaux usages métiers. · Alimenter et porter les décisions d'architecture en Instance Architecture Data, ou dans les instances ad-hoc de la DSI groupe. · Alimenter la Roadmap Data dans sa dimension architecture. · Apporter une expertise technique et fonctionnelle sur les sujets IA / MLOps dans le contexte des transformations liées à la migration cloud (GCP) du Patrimoine Data. · Apporter une expertise d'intégration des outils Data et de leur gouvernance dans l'écosystème Data groupe. · Référencer et tenir à jour les patterns d'architecture Data. · Promouvoir le cadre d'architecture Data auprès du Data Office, des Architectes de la DSI et des équipes métiers. · Être en veille sur les tendances et les nouveautés technologiques des solutions Data. · Vous êtes un(e) interlocuteur(trice) privilégié(e) des métiers et par votre rôle, participez à l'éclairage des décisions stratégiques du Groupe pour l'amélioration de sa performance grâce, entre autres, à une meilleure exploitation, fiabilisation et un cheminement de qualité de la Data.

Offre d'emploi
Profils Devops certifié CKA ou CKAD junior
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Expérience Cloud de minimum 2 ans ( GCP de préférence ) Expert en supervision et automatisation ( ICA, CI/CD , ELK, Prom, Grafana ) Compétences techniques Orchestration Kubernetes - Expert - Impératif automatisation IaC (Terraform/Ansible - Confirmé - Important CI/CD (GitLab CI, ArgoCD) - Confirmé - Important Expérience en env de production avec incidents - Junior - Important Connaissances linguistiques Français Courant (Impératif) Nous recherchons un/une DevOps GCP junior, solide techniquement, disposant d’une expérience cloud d’au moins 2 ans et d’une bonne culture DevOps. Le/la candidat·e possède au minimum une certification Kubernetes (CKA/CKAD fortement appréciée) et montre une vraie appétence pour l’industrialisation et l’automatisation. Contexte & mission Au sein d’un environnement hybride (on-premise + GCP) au service d’une plateforme e-commerce à fort trafic, vous contribuez à : Industrialiser et opérer nos workloads conteneurisés sur Kubernetes/GKE (déploiements, releases, sécurité). Automatiser l’infrastructure via Terraform et les pipelines GitLab CI/CD (build, test, déploiement). Mettre en place et maintenir l’observabilité (logs, métriques, traces), Participer aux bonnes pratiques SRE/DevOps (revues de code, IaC, GitOps, gestion des secrets, sécurité by design). Documenter, partager et améliorer en continu nos processus et outils. Compétences techniques attendues (must-have) Kubernetes (GKE) : packaging (Helm/Kustomize), gestion des namespaces, RBAC, network policies, troubleshooting. Terraform : modules réutilisables, gestion d’états, bonnes pratiques d’IaC. CI/CD GitLab : pipelines, runners, quality gates, artefacts, releases. Docker et fondamentaux GCP : IAM, VPC, Artifact Registry, Cloud Logging/Monitoring. Culture DevOps : tests automatisés, revues, documentation, sensibilisation sécurité et FinOps de base. Compétences appréciées (nice-to-have) GitOps (Argo CD/Flux), Ansible, Policy-as-Code (OPA/Conftest). APM/observabilité (Prometheus/Grafana, Dynatrace ou équivalent). Notions de résilience/DRP, sauvegardes/restores, durcissement sécurité. Certifications Obligatoire : certification Kubernetes (CKA/CKAD en cours ou obtenue). Souhaitées : Google Associate Cloud Engineer (ACE) et/ou Professional Cloud DevOps Engineer. Livrables attendus Pipelines CI/CD fiables et documentés. Modules Terraform maintenables (avec README et exemples). Charts/manifestes Kubernetes prêts à l’emploi. Dashboards & alerting opérationnels + runbooks associés. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant à
Offre d'emploi
Développeur FullStack Python GO, GCP, CI/CD, Monitoring - 12 mois - Lille
Développeur FullStack Python GO, GCP, CI/CD, Monitoring - 12 mois - Lille Un de nos importants clients recherche un Développeur Fullstack pour une mission de 12 mois sur Lille. Descriptif de la mission ci-dessous: L'équipe Database est composé de 20 personnes, et divisée en 2 équipes : 1 pole de DBA (14 personnes ) et 1 pole (6 personnes) de développe qui construite et maintient, la plateforme de gestion des BDD (création de projets, gestion du finops, de la sécurité, suivi de la performance, gestion des accès, DRP...). Au sein de l'équipe Cloud Databases, tu seras un renfort dans notre équipe en charge du build et RUN. Profil et compétences recherchées Tu es un développeur full stack confirmé, Curieux, force de proposition. Tu maitrise le python et a une forte appétence pour les sujets cloud et d'infrastructure. Tu as de la connaissance des principaux systèmes de BDD et souhaite approfondire tes compétences dans ce champ d'activité, sans toutefois en devenir un expert Compétences techniques Dev (python, GO) - Confirmé - Impératif Devops (GCP, Kubernetes, Agile) - Confirmé - Impératif CI/CD (github/ github actions) - Confirmé - Impératif Monitoring (datadog, pagerduty, promotheus) - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) ANGLAIS Professionnel (Impératif) Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.

Mission freelance
Data engineer GCP / Hadoop H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer GCP / Hadoop H/F à Paris, France. Les missions attendues par le Data engineer GCP / Hadoop H/F : Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme

Offre d'emploi
Tech Lead Performance applications
Nous recherchons pour notre client final, un grand compte, un Tech Lead Performance des Applications afin de répondre aux besoins suivants : Missions : Réaliser un inventaire des systèmes d'information (SI) et évaluer leur performance à l'aide des outils de monitoring en place Recenser les briques techniques utilisées dans les différents SI Contribuer à la définition et à la mise en œuvre d'une stratégie de maintien en conditions de performance et de maintenabilité technique Suivre l'avancement de cette stratégie auprès des équipes SI Assurer la coordination avec les domaines métiers en France afin de garantir leur implication Faciliter la résolution des problèmes potentiellement bloquants Assurer un reporting régulier sur l’état du parc applicatif Effectuer une veille technique sur les outils de monitoring existants Livrables : Documents d’audit des SI et synthèses basées sur les objectifs de performance Capitalisation des problèmes identifiés et des solutions apportées Mise à jour et suivi des boards Jira Comptes rendus des réunions de suivi Mise à jour de la documentation CMDB Amélioration de la documentation relative à la stratégie d’optimisation du parc

Offre d'emploi
EXPERT(E) CLOUDOPS Certifié(e) Kubernetes (CKA/CKAD) - Junior (=< 3 ans)
Nous recherchons un/une DevOps GCP junior, solide techniquement, disposant d’une expérience cloud d’au moins 2 ans et d’une bonne culture DevOps. Le/ la candidat·e possède au minimum une certification Kubernetes (CKA/CKAD fortement appréciée) et montre une vraie appétence pour l’industrialisation et l’automatisation. Contexte & mission: Au sein d’un environnement hybride (on-premise + GCP) au service d’une plateforme e-commerce à fort trafic, vous contribuez à : Industrialiser et opérer nos workloads conteneurisés sur Kubernetes/GKE (déploiements, releases, sécurité) Automatiser l’infrastructure via Terraform et les pipelines GitLab CI/CD (build, test, déploiement) Mettre en place et maintenir l’observabilité (logs, métriques, traces) Participer aux bonnes pratiques SRE/DevOps (revues de code, IaC, GitOps, gestion des secrets, sécurité by design) Documenter, partager et améliorer en continu nos processus et outils. ANALYSE DES BESOINS ET VEILLE TECHNOLOGIQUE: Recueille l'information nécessaire et étudie les besoins d'équipements matériels et logiciels Préconise et conseille sur les choix des solutions informatiques en relation avec les architectes, les experts des autres domaines et les besoins du métier dans le respect des patterns techniques définis par l'entreprise Rédige le cahier des charges contenant les spécifications techniques des équipements Rédige les appels d'offre et analyse les propositions des constructeurs en termes de performance, fiabilité et compatibilité Assure une veille technologique pour garantir l'optimisation des ressources systèmes de l'entreprise MISE EN PLACE ET INTÉGRATION Conçoit ou adapte (paramètre) les logiciels sélectionnés Configure et dimensionne les solutions hardware retenues en fonction des performances requises par les logiciels Teste les systèmes mis en place et veille à la compatibilité des éléments entre eux Participe aux phases de validation technique lors des mises en production Veille à la sécurité et à la fiabilité des systèmes de l'entreprise EXPLOITATION Valide l'installation et l'intégration des nouveaux outils (systèmes, ou réseaux et télécoms) Traite les incidents ou anomalies avec diagnostic de l'incident, identification, formulation et suivi de sa résolution Participe aux actions correctives de maintenance en veillant à leur qualité Propose des améliorations pour optimiser les ressources existantes et leur organisation Rédige et met à jour la documentation des procédures et consignes d'exploitation. Effectue le transfert de compétences et l'assistance technique des procédures aux équipes d'exploitation et participe éventuellement à leur formation SÉCURITÉ Respecte et suit les règles de sécurité définie par l'entreprise Applique les plans de sauvegarde et de secours définis Assure la sécurité physique des données en termes de sauvegarde et d'archivage Livrables attendus: Pipelines CI/CD fiables et documentés. Modules Terraform maintenables (avec README et exemples). Charts/manifestes Kubernetes prêts à l’emploi. Dashboards & alerting opérationnels + runbooks associés.

Mission freelance
Ingénieur SRE/DevOps Cloud Senior H/F
Dans le cadre d’un recrutement pour l’un de nos clients du secteur bancaire, nous recherchons un Ingénieur SRE/DevOps Cloud afin d’accompagner les projets stratégiques de migration (DMZR) et de gestion de l’obsolescence technologique. Vous interviendrez sur des environnements complexes à forte criticité, en lien étroit avec les architectes, les équipes de production et les métiers. 💼 MISSIONS Piloter et mettre en œuvre la migration DMZR (zones dématérialisées) Conduire les projets de gestion de l’obsolescence (systèmes, middleware, composants infra/applicatifs) Maintenir et améliorer les plateformes en conditions opérationnelles (performance, sécurité, disponibilité) Définir et mettre en place les outils de monitoring / observabilité (logs, métriques, alerting) Automatiser les déploiements et l’infrastructure via des pratiques Infrastructure as Code (Terraform, Ansible) Participer aux comités d’architecture et contribuer aux choix techniques Garantir la conformité et la sécurité des environnements (politiques internes, audit, conformité réglementaire) Accompagner les équipes Dev et Ops dans la mise en place des bonnes pratiques CI/CD Documenter et standardiser les architectures, procédures et plans de migration

Mission freelance
Devops
Vous venez renforcer l’équipe Observabilité en charge des outils de Log Management, monitoring, alerting, tracing pour le groupe. En pleine refonte de sa stratégie, l’équipe Observabilité met à disposition des Feature Teams les outils nécessaires à la supervision de l’état de santé et la compréhension du comportement de leurs applications, hébergées on-premise ou dans le cloud, ou consommées en SaaS. L’équipe offre aux Dev et Ops du groupe une plateforme d’observabilité intégrée qui s’appuie sur les solutions leaders du marché. Elle leur fournit également son support au quotidien dans l'utilisation des outils et le respect des bonnes pratiques de l'observabilité. Votre mission : Vous participez de manière active à la construction et l'évolution de la plateforme d'observabilité, de la collecte (logs, métriques, traces) à l'exploitation dans les backends: - Design, intégration, templatisation, déploiement, paramétrage, supervision des composants de la plateforme (déployés sur k8s ou consommés en SaaS). - Développement en Go et Python de composants custom - Administration, gestion des incidents/problèmes, industrialisation, et amélioration continue des outils qui composent la plateforme. - Accompagnement, conseils, support aux utilisateurs dans l'utilisation de la plateforme d'observabilité et sur l'amélioration de la performance des applications/projets métiers (à l'international) - Rédaction de la documentation et les dossiers d’exploitation afin de former et de transférer les compétences aux équipes techniques internes. Environnement technique : Vous avez une bonne connaissance de la sécurité et des architectures orientées cloud et on premise. Vous disposez des compétences techniques suivantes : - Maîtrise de Kubernetes - Maîtrise de GCP, connaissances Azure - Maîtrise de Terraform/AWX/ArgoCD - Connaissances en développement GO et Python - Culture SRE et SLO - Connaissances en instrumentation d’applications et observabilité via Opentelemetry, Datadog, Grafana Loki/Mimir, Centreon
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Développeur, c'est mort. Full Stack, Frontend, Backend.
- Recherche entrepreneur ou indépendant – société data/analytics (FR ou LU) pour cession ou partenariat
- Remplacement chauffe-eau : Immobilisation ou charge ?
- Des avis sur Malt
- Rémunération Project Manager BTP pour Aéraunautique/Nucléaire (Paris)
- Remboursements frais de déplacement mission freelance