L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 077 résultats.
Mission freelance
Data Custodian
Signe +
Publiée le
Data management
10 mois
460-500 €
Nantes, Pays de la Loire
Bonjour, Je recherche pour l'un de mes clients un consultant Data Custodian pour couvrir les activités présentées ci-dessous, dans une optique de : Tenir le rôle, Aider à structurer les actions / responsabilités qui seront portées par les DC Le Data Custodian est garant de la visibilité et de la fiabilité des données du RAW. Ses objectifs : Garantir la disponibilité, la qualité et la traçabilité des données issues du RAW pour les zones socles. Assurer la complétude des sources. Assurer la visibilité sur les données brutes et leurs transformations. Assurer la cohérence pour les équipes métiers et techniques. Être le point de contact prioritaire vis‑à‑vis des systèmes sources.
Offre d'emploi
Data scientist / Ingénieur IA & Produits - Prompt Engineering & Evaluation
PARTENOR
Publiée le
Agent IA
Deep Learning
IA Générative
1 an
65k-70k €
560-660 €
Puteaux, Île-de-France
Les missions du poste Dans le cadre d'un projet international stratégique, nous recherchons un(e) Ingénieur IA & Produits pour contribuer au développement de solutions d'IA avancées dédiées à l'enrichissement de contenus et de produits à forte valeur ajoutée. L'architecture technique et les problématiques seront alignées avec celles déjà déployées par l'équipe française, avec une forte dimension Prompt Engineering avancé et évaluation des performances. Vous interviendrez au croisement de la recherche appliquée, de l'ingénierie IA et de la logique produit. Vos missions - Prompt Engineering avancé - Concevoir et optimiser des stratégies de prompting complexes - Développer des chaînes de prompts robustes et industrialisables - Adapter les prompts selon les cas d'usage métier - Gérer la variabilité et la stabilité des outputs - Evaluation & métriques - Concevoir des pipelines d'évaluation des prompts - Définir des métriques de qualité (pertinence, factualité, robustesse) - Mettre en place des benchmarks comparatifs - Optimiser les performances selon précision / latence / coûts - Développement & mise en production - Concevoir des solutions intégrant LLM, Deep Learning et architectures agentiques - Développer des workflows multi-agents - Implémenter des modèles NLP (classification, extraction, enrichissement) - Industrialiser les solutions en environnement produit
Mission freelance
Expert Data Privacy (RGPD)
Codezys
Publiée le
Audit
Data privacy
RGPD
12 mois
Lyon, Auvergne-Rhône-Alpes
Objet de la recherche Recrutement d’un expert (+15 ans d’expérience) pour un audit interne sur la gestion des données dans le traitement des réclamations techniques (niveaux 2 & 3). Contextes et enjeux Problème identifié : Perte de contrôle sur les données entre les applications, due à l’absence d’un processus cohérent de suppression et gestion des données personnelles (VILINK, SAP, CRM 360, Coltshare, etc.). Objectifs : Améliorer la gouvernance Data Privacy, la sécurité, la traçabilité, et assurer la conformité réglementaire (ex. HDS, C5). Rôle et responsabilités du prestataire Diagnostic & consolidation des flux de données : cartographie, identification des zones de superflu, stockage et réplication non souhaités. Définition et déploiement des mesures correctives : création d’un SOP pour la suppression cohérente, nettoyage des données existantes, définition des rétentions conformes. Coordination interéquipes : liaison avec IT, Data Privacy, opérations commerciales, BDR, GCS, suivi du plan de remédiation, cohérence dans les contributions. Contribution transversale : supervision du DPIA, déploiement de mesures de sécurité, gestion des risques, support méthodologique en Data Privacy. Livrables attendus Procédure de “Data Deletion Consistent Process Across Applications”. Cartographie validée des flux de données patient. Plan de remédiation consolidé, mis à jour et exécuté. Reporting hebdomadaire et suivi pour les managers GCS. Documents pour révision DPIA et gouvernance post-projet. Tous les livrables mentionnés dans le rapport d’audit partagé au démarrage.
Mission freelance
POT8947 - Un Développeur Mobile / Data Engineering sur Chatillon
Almatek
Publiée le
SQL
6 mois
250-330 €
Châtillon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients Un Développeur Mobile / Data Engineering sur Chatillon. Description détaillée 1) Développement mobile -Assurer la maintenance évolutive et corrective d’une application mobile en React Native. -Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité). -Implémenter de nouvelles fonctionnalités et les tests associés, en suivant une démarche Clean Code (sécurité, maintenabilité). 2) Data Engineering -Concevoir, développer et implémenter des solutions Big Data Analytics. -Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake. -Développer des notebooks avancés sous Databricks (SQL, Framework Spark). -Rédiger la documentation technique (DAT, release notes, etc.). -Réaliser les tests unitaires et assurer la qualité des livrables. -Contribuer à la maintenance évolutive et corrective des traitements. -Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés. Profil recherché -Expérience confirmée en développement d’applications React Native en production (minimum 5 ans). -Expérience en Data Engineering sur Azure / Databricks / Spark / SQL (minimum 3 ans). -Maîtrise des APIs REST. -Bonne connaissance de Git et première expérience en CI/CD / DevOps. **Compétences techniques** -React Native – Expert – Impératif -Databricks – Confirmé – Impératif -Spark – Confirmé – Impératif -SQL – Confirmé – Impératif Localisation : Chatillon + 2 jrs de TT
Mission freelance
Data Engineer Senior GCP
TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery
3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Mission freelance
Platform Engineer Kubernetes expert
Codezys
Publiée le
API REST
ELK
Grafana
12 mois
Le Mans, Pays de la Loire
Dans le cadre de l'appel d'offres, le prestataire sera chargé de diverses missions essentielles pour assurer la performance, la stabilité et l'évolution de la plateforme XXX. Ces missions se structurent autour des axes suivants : Développement et tests Le prestataire devra réaliser des analyses d'impacts approfondies ainsi que des maintenances correctives et évolutives. Ces activités concerneront principalement : Les pipelines de déploiement, afin de garantir leur robustesse et leur adaptabilité aux nouvelles exigences. L'outillage interne, pour assurer une intégration fluide et efficace des processus de développement. L'outillage de templating Kubernetes, indispensable à la gestion automatisée et à la standardisation des déploiements. La fabrication d'images, en veillant à leur conformité, leur performance et leur sécurité. Support aux utilisateurs de la plateforme Le prestataire devra accompagner et soutenir les utilisateurs de la plateforme XXX, notamment : Les développeurs, responsables d'environnement et autres acteurs techniques. Les équipes de support middleware, en fournissant une assistance technique adaptée et en facilitant la résolution des problématiques rencontrées. Support à la production Il s'agira d'assurer un support de haut niveau, comprenant : Une analyse approfondie et un support de niveau 3 lors d'incidents critiques, avec la possibilité de participer à des cellules de crise pour une résolution rapide et efficace. La gestion d'astreintes ponctuelles en dehors des horaires de bureau afin d'assurer la disponibilité continue de la plateforme en cas d'incidents ou de besoins urgents. Étude de sujet Le prestataire devra être capable de prendre en charge un sujet donné, en réaliser l'étude approfondie, expérimenter, proposer des solutions, mesurer leur efficacité et enfin capitaliser sur les résultats en présentant ses conclusions aux équipes concernées. Intégration produit En complément, le prestataire participera aux travaux d’intégration technique de solutions déjà existantes, telles que : Les progiciels, solutions techniques du marché ou autres composants logiciels pré-équipés. Ces intégrations devront respecter les compatibilités avec l’écosystème de la plateforme XXX, tout en garantissant leur performance et leur stabilité.
Mission freelance
Senior Fullstack .Net/React APIGEE
Codezys
Publiée le
Apigee
Azure
CI/CD
36 mois
Paris, France
Vous rejoignez la plateforme API centrale d’un leader mondial du secteur de l’Énergie , dont l’objectif est de fournir des services automatisés aux développeurs pour héberger, exposer et gérer leurs API dans un environnement multi-cloud . Le projet concerne le DevPortal de la plateforme API : un portail clé, orienté utilisateurs, au cœur de l’expérience développeur. Vous intégrerez : Une squad de 8 développeurs et DevOps Une task-force de 4 personnes (développeurs, DevOps, architecte) Un environnement Agile Scrum , international, avec démonstrations de fin de sprint à l’échelle mondiale La philosophie de l’équipe est clairement “You build it, you run it” . Objectifs et livrables Objectifs de la mission Maintenir et faire évoluer le DevPortal de la plateforme API Concevoir, développer et sécuriser de nouvelles fonctionnalités Garantir une qualité de code irréprochable et des standards élevés de tests Contribuer à une plateforme user-centric , en intégrant activement les retours utilisateurs Participer à l’exploitation et au support du produit en conditions réelles Responsabilités principales Développer et maintenir des fonctionnalités back-end en ASP.NET Core Contribuer au développement fullstack , avec une exposition front-end (React) Concevoir des API robustes, sécurisées et maintenables Mettre en œuvre les bonnes pratiques de Clean Code, TDD et BDD Participer à la mise en place et à l’évolution des pipelines CI/CD Travailler dans un environnement multi-cloud (Azure, AWS, GCP) Collaborer étroitement avec les équipes DevOps et Architecture Participer aux démonstrations de sprint et aux échanges avec les utilisateurs finaux Assurer le support et l’amélioration continue du produit en production Environnement technique Back-end : ASP.NET Core Front-end : React.js (nice to have) Cloud : Azure, AWS, GCP DevOps : CI/CD, automatisation, pratiques “You build it, you run it” Méthodologie : Agile Scrum Qualité : Tests automatisés, TDD, BDD, code review, standards de qualité stricts
Mission freelance
Data engineer
CAT-AMANIA
Publiée le
CI/CD
Databricks
PySpark
1 an
100-450 €
Lille, Hauts-de-France
la data est au cœur de notre stratégie, elle guide chaque décision, de la conception du produit à l'expérience client. Notre équipe Managed tools au coeur de la Data Factory est une brique essentielle de cette mission. Organisée autour des outils de compute, orchestration et expostion, l'équipe Managed tools est chargée de mettre à disposition la stack data pour l'ensemble du groupe Decathlon et d'en assurer sa robustesse et scalabilité. Au sein de la squad Compute nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme.
Offre d'emploi
Administrateur Base de Données Oralce/ SQLServer & AWS
R&S TELECOM
Publiée le
AWS Cloud
Mongodb
Oracle
1 an
Réau, Île-de-France
CONTEXTE DE LA MISSION : Mettre en place une prestation d’administrateur de base de données ORACLE et SQLServer pour accompagner l’exploitation et l’intégration des services de base de données de l'entreprise, dans un contexte de Move to Cloud. Sous la responsabilité du responsable de service et le support d’un référent interne expert le candidat aura en charge la gestion des activités suivantes : Gestion globale d’exploitation du périmètre des bases de données Gestion des incidents et des changements Maintien en Condition opérationnelles et de Sécurité (Patching) Contribution à la mise à jour et au maintien du catalogue des services Base de Données Reporting et du suivi d’activité global de son périmètre Respect des normes et exigences de sécurité des systèmes d’informations Respect des process internes Réalisation et mise à jour des documentations d’exploitation En complément, il participera à l’accompagnement technique d’intégration des bases de données pour les projets (BUILD) Définition d’architecture des bases de données pour les projet applicatifs (accompagnement des architectes sur les spécifications et exigences techniques de dimensionnement, disponibilité, et de performance Accompagnement à l’intégration des bases de données des solutions applicatives Elaboration des référentiels techniques de bases de données (Dossier d’architecture technique détaillés, Dossier de mise en exploitation)
Mission freelance
Directeur de Programme – Migration Data & Analytics Cloud
Signe +
Publiée le
Snowflake
12 mois
840 €
Paris, France
Contexte Dans le cadre d’un programme stratégique de transformation, le client souhaite piloter la migration complète de son écosystème Analytics vers des solutions cloud modernes. L’objectif est de moderniser des plateformes data vieillissantes et d’améliorer la scalabilité, la performance et la gouvernance des environnements Analytics. Périmètre Migration SAP HANA et Sybase IQ vers le Cloud Cibles potentielles : Snowflake, Microsoft Azure ou autres plateformes cloud modernes Transformation globale des architectures Data / BI / ETL Refonte de la roadmap Data Platform à l’échelle de l’entreprise Responsabilités Pilotage global du programme de migration Data Encadrement de 5 à 6 Chefs de Projet Structuration de la gouvernance programme Définition et suivi de la roadmap Gestion des dépendances, risques et budgets Coordination des équipes IT, Data et Métiers Communication auprès des sponsors et instances de direction Compétences techniques attendues Expérience confirmée en migration de bases de données lourdes (HANA, Sybase IQ) Maîtrise des architectures Analytics modernes (Snowflake, Azure, Data Platform Cloud) Compréhension des environnements BI / ETL / Data Warehouse Vision globale des impacts métiers (Finance, Industrie, R&D, Supply Chain…) Compétences managériales Expérience de direction de programme stratégique Capacité à piloter plusieurs streams en parallèle Forte maîtrise de la gouvernance, des arbitrages et de la gestion budgétaire
Mission freelance
[FBO] Ingénieur poste de travail - Support et exploitation - Lyon - 1282
ISUPPLIER
Publiée le
10 mois
300-360 €
Lyon, Auvergne-Rhône-Alpes
Description: Secteur bancaire. Entité de rattachement : Cluster BPCR Titre : équipier OPS Description / contexte de l'activité : Equipier OPS pour AppOps Demat PDT Socle API Niveau d'anglais requis : Technique Modalités d'exécution (sur site / hors site) : 3 jours sur site / 2 jours de télétravail Site de référence : Lyon/Champagne Au Mont d'OR Missions : : • Contrôle de bon fonctionnement des solutions / produits (proactivité) • Prise en charge, dispatch et traitement des incidents, gestion des problèmes • Maintien en condition opérationnelle des solutions/produits (gestion de l’obsolescence, sécurité…) • Mise en place de monitoring, d’indicateurs pour mesurer la performance, la qualité de service, intelligence artificielle • Piloter le plan d’amélioration continue • Coordination des travaux, des dossiers de la backlog (cadrage, objectif/enjeux, livrables, planning, risque…) • Animer la relation avec notre partenaire (priorité, rituels..) • Maitrise des impacts des changements sur le poste de travail en s’appropriant les usages Vous avez une expertise technique sur les solutions Microsoft (Azure, M365, Teams, Sharepoint, AD, Power Plateform, Viva …) et SCCM Vous avez une expérience significative sur les solutions collaboratives dans un contexte grand compte et avec un gros volume de poste de travail Vous avez déjà gérer un parc de serveurs, de postes de travail, des tablettes, smartphones… sur Windows, Androïd ou Apple -- Indispensable : capacité et compréhension techniques, rigueur, expression orale et écrite, autonomie et maturité du prestataire (pas de micro management au sein de l'APPOPS), capacité à s'organiser dans le périmètre confié, gérer ses priorités, solliciter les acteurs de notre éco-système complexe, gérer la relation client, …
Offre premium
Mission freelance
Tech Lead Intégration & Data Flows (H/F) - 92
Mindquest
Publiée le
CFT (Cross File Transfer)
Confluence
Control-M
6 mois
Courbevoie, Île-de-France
Au sein d’un acteur du secteur assurantiel, l’équipe Intégration & Data Management pilote plusieurs progiciels hébergés ainsi que des services externalisés stratégiques (comptabilité, trésorerie, modélisation des risques, reporting réglementaire, gestion d’actifs, prévoyance, rentes, etc.). L’équipe est composée de : 3 Business Analysts 3 Technical Leads 5 Développeurs Le Technical Lead occupe un rôle central, en interface directe avec les équipes métiers, les BA et les développeurs. Pilotage & Coordination: Construire et suivre les plannings (développement, tests, mises en production) Organiser les montées de versions des progiciels hébergés et services externalisés Livrer les évolutions réglementaires en production Piloter les mises à jour systèmes et logicielles Run & Supervision: Revue des alertes serveurs et analyse des incidents Garantir la fiabilité des flux SFTP et CFT Assurer le bon fonctionnement global des applications Intégration & Architecture: Concevoir, mettre en œuvre et piloter les flux d’intégration entre les applications du SI Participer activement à l’amélioration continue des processus
Mission freelance
Administrateur BDD Oracle / SQL Server & AWS
Codezys
Publiée le
Cloud
Mongodb
Oracle
6 mois
Réau, Île-de-France
Secteur : Aéronautique / Défense Localisation : Villaroche / Réau – Télétravail : 3 jours par semaine Démarrage : Dès que possible – Fin prévue : juillet 2026 (reconductible) Nationalité : Habilitable Niveau d'expérience : Expert Domaine : Infrastructures / Cloud – Transition vers le Cloud 1) Description de la mission Dans un contexte de transition vers le Cloud, l'entreprise recherche un(e) Administrateur(trice) Bases de Données expert(e) pour accompagner l'exploitation et l'intégration de ses services de bases de données. Le ou la consultant(e) interviendra sur un périmètre très étendu (environ 1 300 bases), en tant qu'expert(e) des environnements Oracle et SQL Server. Il ou elle contribuera également aux technologies associées telles que PostgreSQL, MongoDB, et aux services hébergés dans AWS. La mission inclut à la fois : une activité de RUN (exploitation, gestion des incidents, patching, maintenance opérationnelle, sécurité) une contribution aux projets BUILD (intégration, architecture, mise en production) 3) Objectifs & livrables attendus Missions RUN (Exploitation / Production) Assurer la gestion globale de l'exploitation des bases de données Gérer les incidents et planifier les changements Maintenir en Conditions Opérationnelles et de Sécurité (MCO/MCS, patching) Contribuer à la mise à jour et au maintien du catalogue des services des bases de données Réaliser le reporting et le suivi d'activité sur son périmètre Respecter les normes et exigences de sécurité du système d'information Appliquer strictement les processus internes Rédiger et mettre à jour la documentation d'exploitation Missions BUILD (Intégration / Projets) Participer à l’intégration des projets liés aux bases de données Définir l’architecture des bases de données pour les projets applicatifs Accompagner les architectes lors de la spécification des solutions : Dimensionnement Disponibilité Performance Fournir un support technique à l’intégration des bases dans les solutions applicatives Produire et maintenir les référentiels techniques : Dossiers d’architecture technique détaillés (DAT) Dossiers de mise en exploitation Dossiers d’intégration et d’exploitation des projets
Offre d'emploi
Chef de Projet Technique Infrastructure & Cloud H/F
Le Groupe SYD
Publiée le
Ansible
CI/CD
Keycloak
12 mois
48k-50k €
480-520 €
Niort, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟 💼 Poste : Chef de Projet Technique Infrastructure & Cloud H/F 📍Lieu : Niort (79) 🏠 Télétravail : Flexible 📝Contrat : Portage ou CDI 👉 Contexte client : Tu rejoins un acteur majeur du secteur assurance/assurtech , engagé dans un important programme de modernisation et de sécurisation de ses infrastructures IT. L’environnement est hybride (on‑premise / cloud), structuré autour de projets techniques variés : décommissionnements Linux, montée en maturité Cloud, rationalisation des environnements, mise en place de clusters Kubernetes/Rancher et amélioration continue des pratiques. Tu auras pour missions de : Piloter les projets techniques : cadrage, définition du périmètre, planification, estimation des charges et coordination des interventions. Animer la gouvernance projet : comités, réunions de lancement, points d’avancement et diffusion des décisions clés. Coordonner les activités techniques : suivi des opérations, gestion des dépendances, identification des risques et mise en place d’actions correctives. Contribuer aux travaux d’infrastructure : supervision des décommissionnements Linux, participation aux activités Kubernetes/Rancher et mise à jour de la documentation. Jouer le rôle d’interlocuteur central : interface entre le client et les équipes techniques, circulation fluide des informations et coordination transverse. Participer au pilotage financier : chiffrage, suivi du consommé, analyse des écarts et sécurisation des engagements coûts/délais/qualité. Accompagner les équipes : assistance technique/fonctionnelle, partage des connaissances et support à la prise de décision. 🧰 Stack technique : Infrastructure & Systèmes : Linux, opérations de décommissionnement, gestions des dépendances, sécurisation des données, documentation. Cloud & Conteneurs : Kubernetes, Rancher, clusters on‑premise / cloud / hybrides. Pilotage : planification, gestion des risques, coordination transverse, comités projet, suivi budget/consommé. Méthodes & Outils : bonnes pratiques de sécurité, supervision, amélioration continue des architectures et processus.
Offre d'emploi
Business Analyst Data
VISIAN
Publiée le
Agile Scrum
Business Analyst
MySQL
1 an
Paris, France
Descriptif du poste Au sein d'une équipe data qui a pour mission de définir la stratégie et la feuille de route Data du groupe, de développer et gérer l'écosystème de partenaires Data, de définir et déployer la gouvernance des données, de définir et piloter le plan d'acculturation Data, et d'accompagner le déploiement des produits et services Data. Le Global Data Office a en charge le développement et le maintien des données de référence du groupe, et a lancé un programme de refonte de la plateforme de Master Data Management
Mission freelance
Network Operation Manager H/F
KOLABS Group
Publiée le
Azure
Cisco
Fortinet
1 an
Paris, France
Nous recherchons pour le compte de notre client un Network Operation Manager afin de renforcer son équipe. Le poste a pour mission d’appliquer des contrôles opérationnels stricts afin d’assurer une performance cohérente des processus techniques et une gouvernance de qualité sur la gestion des tickets, la liaison incidents– changements et la gestion des flux de travail multi-clients. Le poste implique un rôle actif dans l’évaluation des dispositifs internes, la proposition d’améliorations et d’initiatives innovantes pour optimiser les opérations techniques et améliorer la performance globale des services. 💼 Missions : Établir et maintenir des standards de contrôle pour le traitement des tickets techniques, incluant des revues périodiques pour vérifier l’exactitude du contenu et la conformité des workflows établis Surveiller les tendances des tickets et signaler toute incohérence, lacune ou déviation dans les processus Identifier les corrélations entre causes et tickets et mettre en œuvre des améliorations sur le cycle de vie des tickets Garantir la liaison correcte entre incidents et changements, assurer la traçabilité complète et initier des actions correctives si nécessaire Collaborer avec les équipes engineering, opérations et gestion des changements pour réduire les problèmes récurrents et améliorer les pratiques de liaison Définir les responsabilités à chaque point de contrôle technique et renforcer les pratiques de gouvernance Évaluer les systèmes et workflows internes, identifier les inefficacités et proposer des améliorations conformes aux meilleures pratiques techniques Encourager l’adoption d’outils modernes, de tableaux de bord et d’indicateurs pour améliorer la visibilité sur la performance Standardiser les processus techniques entre différents clients pour assurer cohérence, fiabilité et efficacité Identifier les processus variés et les standardiser en cadres évolutifs tout en respectant les exigences spécifiques des clients Proposer des initiatives d’automatisation et d’amélioration continue pour optimiser la qualité globale des opérations
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5077 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois