L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 951 résultats.
Mission freelance
Technical Lead – AI Agentic Platform
Publiée le
CI/CD
DevOps
Docker
1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Une grande entreprise internationale lance une nouvelle plateforme d’IA agentique destinée à orchestrer, héberger, sécuriser et superviser plusieurs agents IA autonomes. Dans ce cadre, l’entreprise recherche un Technical Lead expérimenté pour piloter la construction technique complète de cette plateforme innovante. Missions : En tant que Technical Lead, vous serez responsable de : Build & Architecture : Construire l’infrastructure cloud de la plateforme (GCP/AWS/Azure). Implémenter les composants sélectionnés (LLM, orchestrateurs, agents, vector databases…). Assurer l’intégration avec les autres briques IT internes. DevOps / MLOps : Mettre en place les pipelines CI/CD, templates et chaînes d’intégration continue. Travailler avec les outils internes : Jenkins, Camunda, XLDeploy. Assurer la conteneurisation et l’orchestration (Docker, Kubernetes). Observabilité & Monitoring : Mettre en place le monitoring et l’alerting (Dynatrace, PagerDuty). Suivre capacité, performance et disponibilité. Sécurité : Implémenter les bonnes pratiques de sécurité cloud et IA. Gérer l’accès sécurisé, le chiffrement, la gouvernance. Documentation & Expertise : Rédiger la documentation d’exploitation / RUN. Former les équipes internes et jouer un rôle de mentor. Fournir les rapports de performance et de scalabilité. Livrables attendus : Architecture physique détaillée Prototype fonctionnel Plateforme prête pour la production Documentation complète Rapports de performance Sessions de transfert de connaissances
Mission freelance
Architecte Fonctionnel SI - Solution DATA & RGPD(Assurance)
Publiée le
Agile Scrum
Angular
Apache Kafka
12 mois
680-750 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de la transformation du groupe assurance, plusieurs projets stratégiques sont en cours : Nouveau Référentiel Client (point unique de vérité sur clients MM individuels et entreprises) Programme CRM Plateforme Data / IA Refonte et évolution des espaces digitaux Autres projets de transformation SI La Direction de l’Architecture (MH TECH) est composée de 3 départements : Stratégie SI et gouvernance d’architecture Architecture SI Architecture Technique Objectif de la mission : Apporter une expertise en architecture de solution et fonctionnelle , contribuer à la définition des architectures applicatives et assurer un rôle de conseil stratégique auprès des équipes projets. Nature et étendue de la prestation : Le consultant sera amené à : Définir l’architecture applicative cible et les états stables de la solution Rédiger les dossiers d’architecture selon la méthodologie du groupe MH Analyser les demandes d’évolutions applicatives et leurs impacts sur la solution globale Contribuer aux dossiers d’arbitrage pour les décisions sur les évolutions Préparer et alimenter les Comités Solution Définir les interfaces et règles d’interfaçage du SI de gestion et son écosystème Conseiller et valider les choix techniques Identifier et suivre les adhérences entre programmes et projets de transformation Accompagner les projets de la phase de cadrage à la mise en production Assurer la cohérence entre livrables majeurs et projets connexes (spécifications, développement, recette, migration, conduite du changement) Modéliser la cartographie du SI gestion sous HOPEX (vision cible et trajectoire) Taille du projet : Projet de taille moyenne ou ensemble de petits projets Livrables attendus : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution Dossiers d’arbitrage Dossiers d’analyse des adhérences entre programmes et projets de transformation SI Analyses fonctionnelles et/ou applicatives sur thèmes transverses critiques Cartographies applicatives et données sous HOPEX Comptes rendus hebdomadaires Compétences attendues :Fonctionnelles : Connaissance du domaine assurance santé / prévoyance / épargne / retraite Expertise en enjeux digitaux et data Maîtrise des pratiques et méthodologies d’architecture SI : TOGAF, ArchiMate, UML, Zachman, SAFE, SCRUM, RUP Capacité à formaliser et communiquer l’architecture aux parties prenantes Techniques : Technologies digitales : SPA, BFF, Front SPA (Angular), JAVA EE 5-17, Spring Boot, microservices, API REST, Kafka, Kubernetes, OpenShift Sécurité et identité : SSO, OIDC, OAuth2, SAML, France Connect Data & IA : solutions Big Data Open Source, Cloud (Snowflake…), MDM, DQM, data virtualisation, LLM, RAG, Agentique Architecture CQRS et patterns associés, Cloud Ready Gouvernance et architecture data : GDPR, DORA, Observabilité LLM, Data Architecture Outil de référence : MEGA Modélisation de données : MERISE, UML
Offre d'emploi
Engineering Manager (H/F)
Publiée le
Management
1 an
68k-80k €
550-700 €
Paris, France
En tant qu’ Engineering Manager , vous piloterez plusieurs équipes techniques, en étroite collaboration avec les Lead Développeurs . Vous jouerez un rôle clé dans les orientations techniques, la montée en compétence des équipes et la qualité globale du delivery. Vos missions Management & Leadership Encadrer et faire évoluer plusieurs équipes de développeurs. Travailler en binôme avec les Lead Développeurs pour garantir la cohérence technique, l’excellence des pratiques et le respect des standards de qualité. Piloter les objectifs, accompagner les carrières et promouvoir une culture d’engagement et de collaboration. Pilotage technique & performance Challenger les décisions techniques autour des environnements JAVA , architectures distribuées et microservices. Gérer des plateformes à forte volumétrie avec des enjeux complexes de performance, scalabilité et disponibilité. Participer à la définition de la roadmap technologique en lien avec l’architecte et la direction IT. Cloud & Infrastructure Superviser et optimiser les environnements GCP et AWS : performances, coûts, sécurité, observabilité. Encourager l’adoption des bonnes pratiques cloud natives et CI/CD. Gestion des prestataires & coordination Collaborer avec des prestataires internes et externes (partenaires tech, intégrateurs) pour garantir une bonne coordination et une qualité de delivery homogène. S’assurer de la bonne communication et de la bonne intégration des travaux des partenaires au sein des équipes internes. Projet & Delivery Garantir le bon fonctionnement du delivery : priorisation, organisation, communication, qualité des livrables. Travailler étroitement avec les Product Managers pour synchroniser besoins métiers et contraintes techniques. Optimiser les processus internes pour améliorer la vélocité et la robustesse des développements.
Mission freelance
[SCH] Data Engineer Spark / Scala - 1047
Publiée le
10 mois
350-390 €
Paris, France
Télétravail partiel
Au sein de la DSI Finance, vous interviendrez en tant que Data Engineer Spark / Scala confirmé sur le projet d’intégration du Datalake Finance, adossé à la distribution Hadoop HortonWorks. Ce datalake centralise les données issues des systèmes comptables et de synthèse afin de répondre aux besoins de reporting Finances & Risques (COREP, RWA, IFRS9, etc.). Missions principales : -Participer au développement et à l’intégration de nouvelles sources de données au sein du Datalake Finance. -Assembler et distribuer les données aux consommateurs métiers tout en garantissant la pérennité et la performance des pipelines existants. -Contribuer à la conception technique, l’implémentation et les tests des flux sous Spark / Scala. -Veiller à la non-régression et à la qualité du code dans le cadre des évolutions du socle. -Travailler en méthodologie Agile (Scrum / Kanban) avec les équipes métiers, data et maintenance. -Participer à la documentation technique et aux revues de code. Profil recherché : -5 à 6 ans d’expérience en environnement Big Data / Datalake. -Solide maîtrise de Spark / Scala et des paradigmes de programmation fonctionnelle (ZIO, Monix, Cats appréciés). -Connaissance des écosystèmes Hadoop, Hive, Kafka, HBase, Kerberos. -Expérience dans un cadre Agile (Scrum / Kanban) et outils associés (Jira, Confluence). -Esprit analytique, autonomie, rigueur et bon relationnel.
Mission freelance
Expert Talend / Talend Data Integration Specialist
Publiée le
ETL (Extract-transform-load)
Talend
12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Mission freelance
Ingénieur DevOps Cloud Azure & Data - Confirmé 5 ans xp
Publiée le
Azure
Cloud
Databricks
1 an
Île-de-France, France
Télétravail partiel
Description du contexte Au sein de la Direction Digital et Data, le consultant intégrera le Data Lab , en charge de l’ensemble des projets BI et Data du groupement. La plateforme cible est le Cloud Microsoft Azure . Dans le cadre des projets de transformation, l’Ingénieur DevOps participera au déploiement et à l’industrialisation des solutions data. Polyvalent et à l’aise dans la communication avec les équipes techniques, il devra également contribuer aux sujets de sécurité, aux ateliers, et au suivi des recommandations issues des audits. L’environnement est Agile , et l’équipe composée d’une dizaine de collaborateurs. Missions principales Construire des infrastructures Cloud Public (principalement Azure) Industrialiser les architectures cibles & configurer les équipements (CI/CD) Mettre en place outils & procédures de supervision garantissant la haute disponibilité Participer aux phases de validation technique (mise en production & évolutions) Collaborer étroitement avec les équipes Développement, Sécurité et Projets
Offre d'emploi
DATA ANALYST GCP (420€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-80k €
290-420 €
Île-de-France, France
Télétravail partiel
● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery (Oracle est un plus) ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Exploration et extraction des données : rédaction et optimisation de requêtes SQL complexes, automatisation des traitements analytiques pour des performances accrues. ● Création et optimisation de dashboards interactifs sous Looker Studio, avec une capacité à identifier et suivre des KPIs critiques pour le pilotage métier. ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement. ● Esprit d’analyse et appétence pour le fonctionnel, capacité à appréhender rapidement des logiques métier complexes
Offre d'emploi
DevOps AWS H/F
Publiée le
DevOps
45k-50k €
Lille, Hauts-de-France
Télétravail partiel
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Ingénieur DevOps AWS / InfraOps pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes :) - Faire évoluer et maintenir l'infrastructure Data multi-cloud, notamment l'offre compute basée sur AWS EKS ; - Automatiser la chaîne CI/CD, industrialiser les déploiements et éliminer les tâches manuelles ; - Concevoir, développer et maintenir les API internes de la plateforme (Python, microservices) ; - Gérer la sécurité, l'observabilité, le monitoring et le support N3 de l'infrastructure cloud ; - Proposer et animer les bonnes pratiques DevOps au sein de l'équipe InfraOps et accompagner les projets Data. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Mission freelance
Data Engineer AWS - S3, Glue, Athena, Python
Publiée le
AWS Glue
Python
6 mois
210-480 €
France
Télétravail partiel
Dans le cadre d’un programme data stratégique dans le secteur pharmaceutique (domaine CMC – Chemistry, Manufacturing & Controls), l’entreprise souhaite renforcer son équipe Data Engineering afin de soutenir la migration, l’industrialisation et l’optimisation de ses pipelines analytiques sur AWS. La mission implique une forte collaboration avec les équipes scientifiques, Data, IT et produit, afin de clarifier les besoins métiers, structurer les modèles de données, fiabiliser les flux existants et accompagner les phases de migration vers des architectures modernes. L’objectif est d’améliorer la qualité, la performance, le coût et la robustesse de la plateforme data, tout en garantissant une documentation claire et une montée en compétence durable des équipes internes.
Offre d'emploi
Lead Développeur / Lead Tech
Publiée le
Angular
ELK
Java
1 an
40k-70k €
400-550 €
Nantes, Pays de la Loire
Client : Public Poste : Lead Développeur / Lead Tech Expérience : Minimum 7 ans Localisation : Nantes/Rennes Démarrage : ASAP Lead Développeur / Lead Tech Rôle & positionnement : Un Lead Développeur capable de : • Assurer la direction technique des projets • Décharger l’équipe sur les sujets complexes et les enjeux d’architecture • Encadrer les développeurs (revues de code, pair programming, montées en compétences) • Fonctionner en autonomie forte avec un haut niveau de responsabilité • Interagir avec des équipes internes, tiers et acteurs institutionnels Compétences techniques : Backend : • Java 11/17+ • Frameworks : Spring Boot, Spring Cloud • Maîtrise de la conception d’API (REST, versioning, flux tiers) • Sécurisation : OAuth2, JWT, IAM publics, exposition inter-tiers Frontend : • Angular (dernières versions) • Vue.js (souhaité) • Intégration de DSFR (Design System de l’État) • Maîtrise des bonnes pratiques d’accessibilité (RGAA) Qualité & Architecture : • Clean Code / Clean Architecture • Revue de code structurée • Testing avancé : unitaires, intégration, E2E • CI/CD, conteneurisation (Docker / Kubernetes) • Observabilité (ELK, Grafana, traces) Enjeux spécifiques du secteur public : • Dématérialisation de processus complexes • Respect des normes État (DSFR, sécurité, accessibilité) • Gestion des échanges avec partenaires tiers • Maîtrise des logiques de fraude / contrôle / audit • Conformité RGPD Soft-skills : • Autogestion, autonomie, capacité à piloter un périmètre • Forte compétence en communication technique • Capacité à porter la vision technique et à l’expliquer • Leadership bienveillant et structurant • Rigueur, sens du service public Localisation & conditions • Localisation cible : Nantes ou Rennes • Possibilité de mobilité ponctuelle • 2 jours de télétravail / semaine • Temps plein uniquement
Offre d'emploi
Automation Engineering
Publiée le
.NET
C#
Powershell
1 an
40k-45k €
300-570 €
Paris, France
Télétravail partiel
Contexte et mission L'équipe est en charge de maintenir et de faire évoluer l'infrastructure (~11 000 machines). La gestion de cette infrastructure passe par une série d'outils fournis par les éditeurs et des outils et scripts développés en interne, avec des interconnections avec d'autres infrastructures. Dans ce cadre il faut maintenir et faire évoluer les outils à disposition, pour suivre les évolutions de sécurité, de logiciels et de nouveaux besoins. La mission s'effectue dans un contexte international, en collaboration avec des équipes support principalement en France, UK et Espagne, mais aussi US et Asie. Environnement anglophone.
Offre d'emploi
DATA ENGINEER GCP (480€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-81k €
370-480 €
Paris, France
Télétravail partiel
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets
Offre d'emploi
DBA / Administrateur Base de Données H/F
Publiée le
Database
Microsoft SQL Server
PostgreSQL
40k-45k €
Rennes, Bretagne
Télétravail partiel
Lieu : Rennes (35) Salaire : 40 à 45 K€ annuel brut Rythme : 2 jours de télétravail par semaine à l’issue d’une période d’intégration Nous recherchons pour notre client, acteur du monde de l’agroalimentaire, un DBA / Administrateur Base de Données dans le cadre d'une opportunité de recrutement en CDI. VOS MISSIONS : Rattaché au Responsable Infrastructure, vous êtes garant de la gestion, de la performance, de la sécurité et de la disponibilité des bases de données de notre client. Vos missions consistent à : Administrer et exploiter les bases de données soit en MS-SQL ou en PostgreSQL ; Mettre en œuvre les logiciels de gestion de bases de données (adaptation, administration et maintenance) ; Exploiter et gérer les serveurs de données ; Créer les demandes spécifiques à l’exploitation ; Assurer l’intégrité des bases de données et mettre en œuvre les outils de surveillance nécessaires ; Assister les utilisateurs et réaliser le support technique, niveau 2 pour l’ensemble des bases de données ; Assurer une veille technologique. BASES DE DONNÉES : SQL Server et PostgreSQL
Mission freelance
Coordinateur Anomalies & Tests RUN SI
Publiée le
Data analysis
Dynatrace
JIRA
24 mois
Paris, France
Télétravail partiel
Poste : Pilotage de projet ou de programme en Assistance Technique, taux journalier Spécialités technologiques : BI, Reporting Secteur d'activité : Assurance Technologies et outils : Jira, Excel (niveau avancé), Power BI, Dynatrace Description de la mission : Renforcer la tour de contrôle opérationnelle pour un nouveau Système d’Information complexe, en assurant le suivi, l’analyse et la coordination du traitement des anomalies et incidents, en lien avec les équipes de tests, production et responsables de chantiers. La mission est opérationnelle, orientée qualité, incidents, remédiation et respect des plannings, sans rôle de PMO. Objectifs : Garantir une prise en charge efficace des anomalies détectées en tests et RUN Sécuriser les plannings de livraison via une maîtrise fine des incidents Assurer une coordination fluide entre tests, production et chantiers Fournir une vision consolidée et actionnable de l’état des anomalies Missions principales : Pilotage et suivi des anomalies : création, qualification, priorisation Analyse des incidents du jour, stock d’anomalies, criticité et impact sur livraisons Consolidation des anomalies et indicateurs dans des outils de pilotage Coordination entre tests et production, en assurant la cohérence avec le planning Coordination avec les chefs de chantiers : prise en charge, remédiation, suivi et animation d’instances Formalisation et diffusion des comptes-rendus et PV, suivi des délais de correction Production de tableaux de bord et synthèses (ex. Excel, Power BI) Animation des communautés opérationnelles (niveau 2) Livrables attendus : Analyse quotidienne des incidents Analyse consolidée du stock d’anomalies Tableaux de bord de suivi des délais, criticité, avancement Comptes rendus des instances de coordination Suivi des plans de remédiation Environnement technique : Jira pour le suivi des anomalies, Excel (niveau avancé), Power BI pour l’analyse et le reporting, Dynatrace pour la supervision et performance.
Mission freelance
Tech Lead/Développeur full stack : (70% FRONT/30% BACK) Angular 15+ Spring Boot, JAVA
Publiée le
Angular
Front-end
6 mois
Rennes, Bretagne
Télétravail 100%
Tech Lead/Développeur Angular Java full stack : (70% FRONT/30% BACK) Angular 15+ Spring Boot, JAVA BDD (SQL/NoSQL) 7 ans d'expérience minimum full remote possible • Lead technique, support à l'équipe, autonome public sector • Développement full stack : Angular 15+ minimum, Java, Spring Boot, BDD (SQL/NoSQL), ElasticSearch – et si possible Keycloak, S3 • Connaissance et sensibilité aux domaines de l’accessibilité (RGAA), de la sécurité, des performances • Appétence et implication sur les fonctionnalités indispensable Développeur full stack : Angular 15+ minimum, Java, Spring Boot,
Mission freelance
Data Engineer - Gen AI - Finance (h/f)
Publiée le
12 mois
600-700 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un ingénieur de données expérimenté, spécialisé dans l'IA générique et Python ? emagine vous offre l'opportunité de rejoindre une équipe dirigée par emagine qui fournit des solutions basées sur l'IA dans un environnement bancaire international. Are you an experienced Data Engineer with expertise in Gen AI and Python? emagine has an opportunity for you to join an emagine-led team delivering AI-driven solutions within a global banking environment. You will play a key role in building on-prem AI tools that process and model large volumes of unstructured data from sources such as legal documents and financial policies. This is a hands-on role requiring strong technical skills and the ability to design efficient data pipelines for Gen AI applications. Main Responsibilities Design and implement data ingestion pipelines for structured and unstructured data. Apply techniques such as vectorization and chunking to prepare data for LLM-based solutions. Develop Python-based tools for large-scale data processing and storage manipulation. Collaborate with Data Scientists and Business Analysts to ensure data readiness for AI models. Key Requirements 5+ years of experience as a Data Engineer in complex environments. Strong expertise in Python and experience with data modelling for AI applications. Familiarity with vectorization, chunking, and handling large datasets. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Fluent in English Nice to Have Exposure to legal or procedure-focused applications. Other Details: This position is Hybrid – on-site minimum 3 days per week in Paris 8th arrondissement . Apply with your latest CV or reach out to Brendan to find out more.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
1951 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois