L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 758 résultats.
Offre d'emploi
SEM / Expert Fonctionnel Finance (H/F)
WINSIDE Technology
Publiée le
API
E-Invoicing
E-reporting
1 an
Lille, Hauts-de-France
Secteur : Retail Nous recherchons un(e) SEM / Expert(e) Fonctionnel(le) pour rejoindre une organisation IT en pleine transformation, au sein d’un acteur majeur du retail. Vous interviendrez sur un périmètre stratégique lié aux solutions financières et à la facturation, au cœur d’un système d’information en pleine modernisation. Votre rôle En cohérence avec la vision de l’entreprise et le schéma directeur du système d’information, vous jouez un rôle clé en tant qu’expert fonctionnel. Vous veillez à ce que les applications répondent aux besoins métiers et techniques, tout en respectant les engagements pris par la DSI. À ce titre, vous serez amené(e) à : Vision & Pilotage Définir la vision produit en collaboration avec les équipes métiers et l’architecte d’entreprise. Contribuer à un projet stratégique d’envergure autour de la facturation et de la dématérialisation. Piloter le planning capacitif des ressources de votre périmètre. Animation & Coordination Coanimer fonctionnellement une équipe pluridisciplinaire (développeurs, analystes applicatifs). Prioriser, arbitrer et alerter lorsque nécessaire, en garantissant cohérence et efficacité. Exécution & Delivery Participer activement à la conception, aux spécifications détaillées (IHM, API, traitements), aux phases de recette et au suivi des développements. Accompagner les utilisateurs métiers et contribuer au run applicatif. Votre profil ✅ Expérience Vous justifiez d’au moins 5 ans d’expérience comme ingénieur études ou chef de projet informatique , idéalement dans le secteur de la distribution . ✅ Compétences fonctionnelles Vous possédez des connaissances solides sur les domaines Finance , et notamment sur : la facturation , la mise en œuvre des réformes e-invoicing / e-reporting , (bonus) une exposition à Oracle Financial . ✅ Compétences techniques attendues Pour interagir efficacement avec les équipes IT, vous maîtrisez : Le SQL sur bases Oracle et PostgreSQL. Les concepts et outils GCP : Storage, Cloud Functions, Pub/Sub, Terraform… Les principes des web services et des API . ✅ Méthodologies & Soft Skills Vous êtes sensibilisé(e) aux démarches d’ agilité et d’amélioration continue (Scrum, Kanban), avec un usage confirmé de JIRA. Reconnu(e) pour votre esprit de synthèse , votre pragmatisme et votre autonomie . Excellentes capacités de communication : vous savez fédérer, prioriser et accompagner les métiers. Engagé(e), vous incarnez les valeurs de l’entreprise et jouez un rôle de business partner auprès des équipes opérationnelles.
Offre d'emploi
Expert DevOps
bdevit
Publiée le
Ansible
AWS Cloud
CI/CD
36 mois
Île-de-France, France
Contexte : Dans le cadre des activités d’industrialisation et d’automatisation des plateformes IT d'une banque de renom, l’Expert DevOps interviendra au sein des équipes de production et d’ingénierie afin de garantir la fiabilité, la scalabilité et la sécurité des chaînes de déploiement applicatif dans des environnements critiques bancaires. Missions Pincipales : Concevoir, mettre en œuvre et maintenir les pipelines CI/CD pour l’industrialisation des déploiements applicatifs ; Automatiser les processus de build, test et release dans une logique GitOps ; Déployer et administrer des environnements conteneurisés sous Kubernetes ; Gérer l’infrastructure as code via Terraform et/ou Ansible ; Intégrer et administrer des solutions APIM (idéalement Kong ) ; Superviser les plateformes via des outils de monitoring (Dynatrace, Prometheus, etc.) ; Garantir la haute disponibilité et la résilience des applications en production ; Participer aux activités de MCO et à la gestion des incidents de niveau 2/3 ; Assurer la sécurité des déploiements (gestion des secrets, conformité, etc.) ; Collaborer étroitement avec les équipes développement, sécurité et production.
Mission freelance
PM / PMO Data & Digital Transformation
Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
Offre d'emploi
Architecte AWS (H/F) – Secteur Monétique
CELAD
Publiée le
60k-65k €
Nanterre, Île-de-France
Contexte Dans le cadre d’une mission pour l’un de nos clients, acteur reconnu dans le secteur de la monétique, nous recherchons un Architecte AWS afin d’accompagner la transformation et l’évolution de ses plateformes technologiques. Vous interviendrez sur des environnements critiques liés aux systèmes de paiement, nécessitant un haut niveau d’exigence en matière de sécurité, de performance et de disponibilité. Vos missions Définir et concevoir les architectures cloud basées sur AWS Accompagner la migration vers le cloud et la modernisation des applications Garantir la scalabilité, la résilience et la sécurité des infrastructures Collaborer étroitement avec les équipes de développement, DevOps et sécurité Participer aux choix technologiques et aux bonnes pratiques d’architecture Mettre en place des standards et des référentiels d’architecture Assurer une veille technologique continue sur les services AWS Intervenir en support des équipes techniques sur les problématiques complexes
Mission freelance
Data Scientist / AI Engineer
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Offre d'emploi
Data Engineer
Recrut Info
Publiée le
AWS Cloud
Data Lake
Python
45k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Head of Data, vous participerez aux développements de la plateforme data. Dans un contexte cloud-first (AWS), vos principales missions seront les suivantes : - Concevoir, déployer et maintenir des systèmes de données résilients, sécurisés et scalables : bases de données, data warehouses, data lakes, traitements batch et temps réel, flux d’ingestion et transformations de données. - Développer, industrialiser et superviser des pipelines de données de type ETL/ELT. - Garantir la structuration, la qualité et la bonne gouvernance des données au sein des différents environnements de stockage. - Mettre en œuvre des solutions de Business Intelligence et de data visualisation telles que Power BI, afin de faciliter l’analyse et la prise de décision. - Répondre aux besoins de mise à disposition des données, de mise en production des modèles et d’optimisation des performances. - Concevoir et déployer des solutions d’exposition de la donnée via des API internes et externes. - Contribuer à la mise en œuvre de projets IA sur différents piliers métiers et business. - Sécuriser les architectures techniques et les échanges entre services en appliquant les meilleures pratiques de sécurité : IAM, gestion des habilitations, principe du least privilege, etc. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité)
Mission freelance
AI Engineer GCP
Groupe Aptenia
Publiée le
Google Cloud Platform (GCP)
MCP
Python
1 an
550-600 €
Île-de-France, France
Nous sommes à la recherche d'un AI Engineer GCP pour rejoindre une équipe backend experte, votre mission : développer de nouvelles features, optimiser l’existant... L'expertise en software development, notamment backend (Python) et connaissance de GCP (expérience concrète) est primordial pour cette mission. 🎯 Vos missions clés ✅ Développer et améliorer le backend des agents IA (création, nouvelles features). ✅ Optimiser l’infrastructure GCP (Cloud Run, Terraform). ✅ Collaborer avec une équipe passionnée de code et d’IA (MCP, LLM). ✅ Scalabiliser un produit SaaS à forte audience.
Offre d'emploi
Responsable Data Platform
Recrut Info
Publiée le
Amazon Redshift
AWS Cloud
Data governance
55k-65k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au CTO, vous encadrerez un Data Engineer et prendrez la responsabilité de la plateforme data et des initiatives d’ingénierie data. Dans un contexte cloud-first (AWS) et de structuration de la stratégie data, votre rôle consistera à définir l’architecture cible, organiser les flux de données et piloter la mise en œuvre des solutions permettant de soutenir les enjeux métiers et business. À ce titre, vos principales missions seront les suivantes : - Définir et piloter l’architecture data cible (Data Lake, Data Warehouse, flux batch et temps réel). - Aligner les initiatives data avec les priorités business et métier, et structurer la roadmap associée. - Concevoir et faire évoluer la plateforme data et les solutions techniques sous-jacentes dans un environnement cloud AWS. - Définir les standards d’ingestion, de transformation et demodélisation des données (dbt pour la transformation notamment). - Mettre en place les mécanismes d’exposition des données via APIs ou services internes/externes. - Structurer les pratiques de gouvernance de données, data quality et data lifecycle. - Superviser les plateformes permettant le déploiement des cas d’usage Data Science et IA. - Piloter les partenaires et prestataires intervenant sur les projets data et garantir la qualité des livrables. - Assurer le suivi des coûts de la plateforme data et optimiser l’usage des ressources cloud (FinOps). - Contribuer aux réflexions autour de l’évolution de l’écosystème data, notamment sur les solutions d’intégration (ex. iPaaS). Le poste combine vision d’architecture, capacité technique et pilotage, avec une part d’exécution technique mais une orientation progressive vers le pilotage et la structuration. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité),
Offre d'emploi
Machine Learning Engineer – GenAI / RAG – GCP
xITed
Publiée le
BigQuery
Google Cloud Platform (GCP)
Large Language Model (LLM)
12 mois
38k-60k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet autour de l’industrialisation de solutions d’intelligence artificielle, nous recherchons un Machine Learning Engineer capable de concevoir et déployer des solutions basées sur des LLM et architectures RAG dans un environnement Google Cloud Platform . Le consultant interviendra sur la conception, le développement et la mise en production de solutions d’IA intégrées dans des applications métiers. Missions : Conception et développement de solutions basées sur LLM et RAG Développement et optimisation de modèles de Machine Learning Mise en place de pipelines MLOps Mise en production de modèles ML et GenAI Déploiement de services ML dans un environnement GCP Développement d’API d’inférence et intégration dans des applications métiers Collaboration avec les équipes data, cloud et engineering Compétences techniques Machine Learning / GenAI Python TensorFlow / PyTorch ou équivalent LLM RAG LangChain ou frameworks similaires Cloud & Infrastructure Google Cloud Platform Vertex AI BigQuery Cloud Run ou GKE MLOps Docker Kubernetes CI/CD
Mission freelance
Sénior Data Engineer SQL & GCP
INFOTEL CONSEIL
Publiée le
Google Cloud Platform (GCP)
3 ans
400-550 €
Roissy-en-France, Île-de-France
Pour un acteur majeur du transport aérien, nous recherchons un Data Engineer Sénior avec une forte expérience en SQL & GCP. L'équipe est constituée de 12 Data engineers, 1 Scrum Master et 1 Product Manager. Les Data Engineers sont responsables des nombreux pipelines de données qui alimentent le DWH mais aussi de ceux qui exportent les données vers les applications consommatrices Ces pipelines sont actuellement hébergés on-premise, mais migreront très prochainement vers GCP (à partir de mars 2026). Anglais courant obligatoire
Mission freelance
CONSULTANT CLOUD AWS / PLATEFORME
SKILL EXPERT
Publiée le
AWS Cloud
Gitlab
2 mois
550-600 €
Hauts-de-Seine, France
CONSULTANT CLOUD AWS / PLATEFORME COMPÉTENCES REQUISES CONSULTANT CLOUD AWS / PLATEFORME Confirmé AWS CLOUD, ARGOCD, GITLAB Confirmé TERRAGUNT, ARCHITECTURE Confirmé ANGLAIS LU, ÉCRIT, PARLÉ Confirmé Descriptif de la mission Notre Client recherche pour cette mission un Consultant Cloud AWS / Plateforme Les tâches au quotidien seront : • Définir, concevoir et mettre en œuvre les éléments techniques nécessaires à une stratégie de reprise après sinistre pilote sur AWS • Analyser l'architecture cible existante de reprise après sinistre à chaud pour les charges de travail critiques dans le cloud • Examiner et remettre en question les modèles techniques de basculement, de retour en arrière, de réplication, de synchronisation et d'orchestration de récupération • Traduire les exigences en matière de résilience et de reprise en solutions techniques robustes, pragmatiques et évolutives • Mettre en œuvre les composants d'infrastructure et de reprise après sinistre en utilisant l'infrastructure en tant que code et les principes GitOps • Collaborer avec les équipes plateforme, infrastructure, sécurité et applications pour garantir une cohérence de bout en bout • Définir et documenter les procédures de basculement, de retour en arrière, de validation de la récupération et de test de reprise après sinistre • Identifier les risques techniques, les dépendances, les points de défaillance uniques et les lacunes opérationnelles Les compétences requises pour cette mission sont : • Justifier d'au moins 5/6 ans d'expérience professionnel dans ce domaine • Avoir une solide expérience dans l'exploitation de plateforme de production basée sur AWS • Avoir de bonnes compétences en matière d'infrastructure as code, en automatisation et de standardisation du déploiement • Justifier d'une solide connaissance de la haute disponibilité et des opérations de productions • Avoir de bonnes connaissances avec ArgoCD, Gitlab, Terragunt • Anglais lu, écrit, parlé Environnement technique de la prestation Aws Cloud, ArgoCD, Gitlab Terragunt, Architecture
Offre d'emploi
Architecte Plateforme & DevSecOps – Hybrid Cloud AWS / GCP / Vision Platform Engineering
ANAFI CONSULTING
Publiée le
Architecture
CI/CD
Cloud
1 an
40k-80k €
400-750 €
Île-de-France, France
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil basé à Paris, fondé en 2023. Nous accompagnons nos clients grands comptes dans leurs transformations technologiques et organisationnelles, avec une expertise forte en Cloud, Platform Engineering, DevSecOps, Data, Sécurité et numérique responsable . Nous intervenons dans des secteurs variés : finance, télécommunications, IT, industrie critique et énergie. Votre rôle Dans le cadre de programmes stratégiques de transformation Cloud et d’industrialisation des plateformes IT, nous recherchons un(e) Architecte Plateforme & DevSecOps Hybrid Cloud AWS / GCP . Vous interviendrez à un niveau High Level Design / Vision Architecture , en pilotant la conception de plateformes cloud hybrides sécurisées, automatisées et orientées produit (Platform Engineering). Votre rôle combinera : Vision d’architecture cible multi-cloud Conception de plateformes d’ingénierie interne (Internal Developer Platform) Industrialisation CI/CD et DevSecOps Gouvernance cloud, sécurité et FinOps Accompagnement des équipes (Architecture, Dev, Ops, Sec, Data) Vos missions principales Vision & Architecture Plateforme Définir la Target Architecture Platform Engineering en environnement hybride AWS / GCP. Concevoir des plateformes mutualisées : Runtime container / Kubernetes multi-cloud Observabilité unifiée Sécurité by design Gestion des identités et des accès cross-cloud Concevoir des architectures orientées resilience, scalability et zero trust . Définir les patterns d’architecture standardisés (landing zones, blueprints, golden paths). Industrialisation & DevSecOps Concevoir et structurer des chaînes CI/CD globales multi-cloud . Définir les standards : Infrastructure as Code Policy as Code Security as Code Compliance as Code Intégrer les contrôles sécurité dans le cycle de delivery (shift-left security). Structurer la stratégie GitOps et automatisation des environnements. Platform Engineering & Developer Experience Participer à la conception d’ Internal Developer Platforms (IDP) . Définir les parcours développeurs : Self-service infrastructure Templates applicatifs Environnements automatisés Optimiser la Developer Experience et le Time To Market. Gouvernance Cloud & FinOps Définir les modèles de gouvernance multi-cloud. Mettre en place des stratégies FinOps et optimisation des coûts. Participer aux comités d’architecture et de gouvernance groupe. Sécurité & Conformité Définir les modèles DevSecOps et Zero Trust. Intégrer les exigences réglementaires et compliance sectorielle. Participer aux analyses de risques et aux stratégies de sécurisation plateforme. Accompagnement & Leadership Accompagner les équipes architecture, DevOps, sécurité et Data. Animer des ateliers d’architecture et des communautés techniques. Porter la vision plateforme auprès des directions techniques et métiers.
Mission freelance
Architecte Sécurité Azure/GCP
Groupe Aptenia
Publiée le
Architecture
Azure
Cybersécurité
3 ans
Paris, France
Mission d’ Architecte Sécurité Cloud au sein d’un grand groupe international du secteur des services. Le rôle consiste à définir et mettre en œuvre la stratégie de sécurité cloud sur des environnements principalement Microsoft Azure , avec une exposition complémentaire à GCP . L’architecte intervient sur la sécurisation des architectures, la gouvernance, les bonnes pratiques et la conformité , en collaboration avec les équipes cloud et sécurité. Il participe également à la définition des standards, des contrôles de sécurité et des modèles d’architecture sécurisés pour les plateformes cloud du groupe.
Offre d'emploi
OPS sénior - Cloud AWS / DevOps
VISIAN
Publiée le
AWS Cloud
Red Hat
1 an
Lille, Hauts-de-France
Contexte Suite à une augmentation d’activité et de la mise en place d’une nouvelle infrastructure complète pour accueillir un nouveau projet, nous recherchons un OPS sénior pour venir renforcer l'équipe s'occupant de l'exploitation du périmètre. Missions Installer, mettre en production, administrer et exploiter les moyens informatiques d’un ou plusieurs sites informatiques. Participer au bon fonctionnement des systèmes d’information en garantissant le maintien à niveau des différents outils et/ou infrastructures des logiciels systèmes et/ou infrastructures de communication (locale, étendue, voix, image, architecture centralisée, client-serveur, web, mobile) dans un objectif de qualité, de productivité et de sécurité. Mettre en place de la culture devops au sein de l'équipe, autonomiser et dynamiser son équipe et comprendre le besoin des développeurs. Accompagner les développeurs et l'intégration de la solution dans un système complexe. Livrables Construire à l’aide des outils mis à disposition l’infrastructure sous le cloud AWS : architecture ROSA (Redhat Openshift Service on AWS), Oracle, S3, ordonnanceur. Mettre en place toute la stack CICD permettant de construire et déployer les livrables fournis par le CDS (technologies actuellement envisagées : Gitlab-CI, Ansible, Terraform). Effectuer les tests de résilience de la nouvelle application. Documenter et diffuser les compétences pour la gestion du RUN du projet. Identifier les métriques nécessaires à monitorer pour aider à l’analyse. Assurer le run de l’application (mise en production, supervision, debug, incidentologie). Accompagner les équipes support clients dans l'analyse et la résolution des incidents. Dans un contexte agile, être dans un esprit d’amélioration continue. Concevoir et développer les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus. Être référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements.
Mission freelance
Tech Lead Data – Snowflake et Modern Data Stack (H/F)
Lùkla
Publiée le
Snowflake
1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement de sa plateforme data, nous recherchons un Tech Lead Data pour piloter la conception et l’évolution d’une Modern Data Stack performante et scalable. Vos missions Définir et piloter l’architecture data basée sur Snowflake Mettre en place les standards de modélisation, gouvernance et sécurité Structurer les pipelines d’ingestion et de transformation (dbt, Fivetran) Déployer les bonnes pratiques d’industrialisation (CI/CD, tests, qualité) Optimiser la performance et les coûts de la plateforme (FinOps) Encadrer techniquement les équipes data et accompagner leur montée en compétence Contribuer à la roadmap data et aux sujets d’innovation (IA notamment) Environnement technique Snowflake dbt Fivetran Power BI Azure DevOps
Mission freelance
Architecte Cloud AWS / Azure (Data Platform) - Paris
Net technologie
Publiée le
Architecture
AWS Cloud
Azure
3 mois
Paris, France
Nous recherchons un Architecte Cloud expérimenté pour accompagner la mise en place d’une nouvelle Data Platform au sein d’un programme de transformation data. 🎯 Enjeux : concevoir et piloter l’architecture SI cloud, garantir la cohérence avec la stratégie IT, et accompagner l’innovation autour des architectures Data Lakehouse . 🚀 Missions Définir et piloter l’ architecture cloud (AWS / Azure) Contribuer aux choix technologiques et à la stratégie SI Accompagner les projets dans la conception et l’intégration des solutions Définir les standards d’architecture et bonnes pratiques Garantir la sécurité, la résilience et la performance du SI Participer à l’amélioration continue et au partage des connaissances
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2758 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois