L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 479 résultats.
Mission freelance
Data Gouv Senior
Nicholson SAS
Publiée le
Confluence
Data analysis
Data Engineering
5 mois
550 €
Hauts-de-Seine, France
Nous recherchons pour notre client un Data Gouv Senior capable de fédérer et de piloter des instances : Rédaction et mise à jour des documents de gouvernance Data/IA (principes, référentiels, standards). Réorganisation, harmonisation et traduction (FR/EN) du fonds documentaire. Organisation des comités CDO / Data IA : invitations, ordres du jour, supports, comptes-rendus. Production des supports de communication ((intranet client), Teams, PowerPoint) Organisation d’évènements de la filière : plénières, challenges Data Science, ateliers. Collecte et consolidation des indicateurs mensuels de la filière. Rédaction du reporting mensuel d’activité. Compétences : Gouvernance des données Pilotage transverse / PMO et organisation de comités. Excellentes compétences rédactionnelles en français et bonne maîtrise de l’anglais. Communication interne, storytelling, animation de communautés. Maîtrise Microsoft 365 (PowerPoint, Excel, Teams, SharePoint). Connaissance de Confluence, Jira. Autonomie, rigueur, sens du détail et excellent relationnel.
Mission freelance
Data Engineer
Coriom Conseil
Publiée le
Google Cloud Platform (GCP)
Scripting
SQL
12 mois
400-490 €
Lille, Hauts-de-France
Le ou la Data Engineer sera intégré(e à l'équipe produit TOPASE NLS et aura pour principales missions de : µ ● Conception, Développement et Optimisation de Pipelines de Données sur GCP : ○ Concevoir, développer et maintenir des pipelines robustes et performants de collecte, transformation et chargement de données à partir de diverses sources (Oracle, fichiers, APIs, etc.) vers BigQuery et d'autres destinations. ○ Utiliser et orchestrer les services Google Cloud Platform (Dataflow, Dataproc, Cloud Composer/Airflow, Pub/Sub, Cloud Storage, BigQuery) pour construire des architectures de données scalables et fiables. ○ Assurer l'automatisation des traitements, la gestion des dépendances et l'ordonnancement des jobs de données. ○ Optimiser les performances des pipelines et la consommation des ressources GCP.
Mission freelance
Administrateur de Bases de Données
Phaidon London- Glocomms
Publiée le
Ansible
AWS Cloud
Dynatrace
3 mois
Paris, France
Administrateur de Bases de Données – Cloud & Automatisation Client : Prestataire mondial de technologies et de services Lieu : Nanterre Contrat : 3 mois À propos de l’entreprise Notre client est une organisation internationale de premier plan spécialisée dans les opérations technologiques sécurisées à grande échelle et les solutions numériques pour les environnements de travail. Avec une forte culture d’excellence technique et de fiabilité opérationnelle, l’entreprise soutient des millions d’utilisateurs dans plusieurs régions grâce à des infrastructures robustes, des initiatives de transformation cloud et des systèmes critiques. Elle est reconnue pour son haut niveau d’exigence, son modèle de delivery structuré et sa capacité à gérer des environnements technologiques complexes à l’échelle mondiale. Présentation du rôle L’équipe mondiale d’ingénierie des bases de données recherche un Administrateur de Bases de Données Senior pour accompagner des projets de transformation cloud, des initiatives d’automatisation et l’amélioration continue de la fiabilité des plateformes Oracle et SQL. Ce rôle couvre des activités d’ingénierie, de migration, de support d’incidents et d’optimisation de plateformes, au sein d’une équipe technique collaborative. Le poste exige une solide expertise Oracle, une expérience en migration vers le cloud (AWS), des compétences en automatisation, ainsi que la capacité à soutenir des services critiques de bases de données en zone EMEA. La mission inclut l’ingénierie, la supervision, la résolution d’incidents, la réplication, la sauvegarde, la reprise après sinistre et l’amélioration des frameworks d’automatisation. Une participation aux astreintes sera requise. Responsabilités principales Contribuer aux efforts d’ingénierie au sein d’une équipe DBA globale, en soutien aux initiatives de transition cloud et d’optimisation d’infrastructure. Diriger les activités de migration cloud, d’automatisation, d’ingénierie de réplication et de frameworks d’auto‑réparation. Consolider et améliorer les métriques, dashboards et solutions de supervision. Assurer le support des serveurs Oracle et SQL en EMEA : incidents, changements, migrations et plans de continuité (DRP). Mettre en œuvre et maintenir les solutions de sauvegarde, clonage et restauration (DATAPUMP, RMAN). Travailler sur les technologies de réplication, notamment GoldenGate et DataGuard. Collaborer avec des équipes transverses dans le cadre de projets d’ingénierie internationaux. Participer aux rotations d’astreinte. Compétences & Qualifications requises Minimum 5 ans d’expérience en administration Oracle. Connaissance d’autres technologies telles que SQL Server, MongoDB, PostgreSQL, Hadoop (atout). Solide exposition à AWS et aux migrations cloud. Expérience sur les clusters Oracle RAC. Maîtrise des solutions de sauvegarde, clonage et migration via DATAPUMP et RMAN. Expertise en reprise après sinistre via DataGuard. Solide expérience Linux (Red Hat). Connaissance d’outils de supervision : OEM, Sitescope, Prometheus, Dynatrace. Compétences en automatisation et scripting (Python, Java, PowerShell, Terraform). Expérience CI/CD ou d’orchestration d’automatisation (Ansible, AWX ou équivalent). Maîtrise de l’anglais (lu/parlé/écrit).
Mission freelance
Data Engineer industriel
MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel
6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
Offre d'emploi
Ingénieur DevOps AWS - Région PACA - Habilitable
Groupe Aptenia
Publiée le
AWS Cloud
Datadog
Gitlab
6 mois
Provence-Alpes-Côte d'Azur, France
Nous recherchons un Ingénieur DevOps Cloud orienté AWS pour intervenir sur le développement et l’évolution d’une plateforme interne utilisée par des équipes métiers et techniques . Vous participerez à la conception et à l’optimisation des infrastructures cloud, à l’automatisation des environnements et au développement d’outils associés. L’environnement technique inclut AWS, Terraform, Datadog, Python et Vue.js . Une sensibilité aux sujets liés à l’IA est appréciée. Le poste requiert un bon esprit collaboratif , une capacité à comprendre les enjeux métier et une forte curiosité technique.
Mission freelance
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour
BI SOLUTIONS
Publiée le
API Platform
AWS Cloud
2 ans
400-480 €
Île-de-France, France
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour Rôles et responsabilités En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donne e ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Compétences - Compétences nécessaires (2 ans d’expérience minimum) : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro services • Python • APIs (REST, event driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision - Langues : Anglais et Français 480 e par jour
Offre d'emploi
Ingénieur Sécurité Data (H/F)
AVA2I
Publiée le
AWS Cloud
Cybersécurité
FortiGate
3 ans
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme Data stratégique au sein d’un grand acteur du secteur de l’énergie, nous recherchons un Ingénieur Sécurité Data pour renforcer la sécurisation d’un environnement multicloud AWS & GCP . L’objectif est de protéger l’ensemble de la chaîne de valeur Data : ingestion, stockage, transformation et exposition des données, tout en garantissant conformité, traçabilité et résilience des infrastructures. 🏗️ Environnement Technique Cloud : AWS & GCP (environnement multicloud) Plateforme Data : Data Lake / Data Warehouse ETL / ELT Orchestration de flux data Sécurité réseau : Firewalls Fortinet / FortiGate Segmentation réseau & sécurisation des flux inter-VPC / inter-projets CI/CD & approche DevSecOps Supervision & monitoring sécurité 🛠️ Missions principales🔒 Sécurité Cloud & Data Sécurisation des architectures Data sur AWS et GCP Mise en place et contrôle des politiques IAM Gestion des accès aux environnements Data Sécurisation des flux d’ingestion et d’exposition des données Application des standards sécurité groupe 🌐 Sécurité Réseau Administration et configuration des firewalls FortiGate Gestion des règles de filtrage, VPN, NAT, IPS Segmentation réseau et sécurisation des flux inter-environnements Analyse et traitement des incidents sécurité réseau
Offre d'emploi
DevOps – Kubernetes / AWS - Lyon
Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes
40k-45k €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
Offre d'emploi
Développeur Full Stack (Go & python & Angular)
AVALIANCE
Publiée le
Angular
AWS Cloud
CI/CD
1 an
40k-65k €
450-600 €
Massy, Île-de-France
Compétences techniques requises : Concevoir et mettre en œuvre des fonctionnalités robustes et évolutives sur nos différentes plateformes. • Piloter les décisions relatives à l'architecture technique et les choix technologiques stratégiques. • Intégrer et améliorer nos solutions de services de bases de données. • Optimiser les performances, la sécurité et la maintenabilité des applications critiques. • Qualité et tests • Mettre en place et appliquer des stratégies de tests automatisés (unitaires, d'intégration, de bout en bout). • Réaliser des revues de code rigoureuses et constructives. • Respecter des normes de qualité de code exemplaires et tenir à jour une documentation exhaustive
Mission freelance
Pilote de Delivery (H/F)
Insitoo Freelances
Publiée le
AWS Cloud
DevOps
2 ans
480-530 €
Lyon, Auvergne-Rhône-Alpes
Contexte : Fonctionnement : 2 jours non consécutifs par semaine sur site à Lyon Les missions attendues par le Pilote de Delivery (H/F) : Missions principales : Pilotage du delivery Coordonner une équipe produit (développeurs, DevOps, QA, etc.) Garantir la qualité, la performance et la fiabilité des livrables Suivre l’avancement des développements et sécuriser les engagements Animer la dynamique d’amélioration continue (indicateurs DORA, performance delivery) Pilotage technique opérationnel Superviser les pratiques DevOps / DevSecOps Piloter la mise en place et l’optimisation des pipelines CI/CD Veiller à la bonne intégration des enjeux de sécurité, performance et résilience Suivre les choix d’architecture en lien avec les experts techniques Contribuer à l’industrialisation du delivery et à l’automatisation Coordination & communication Être le point de contact entre les équipes techniques, produit et métiers Organiser et animer les comités techniques et de pilotage Assurer le reporting (avancement, risques, alertes) Faciliter la collaboration entre les différentes parties prenantes Contribution à la stratégie produit Travailler en lien étroit avec le Product Owner et le Lead Developer Participer à la priorisation et à la structuration du backlog Contribuer à l’alignement entre enjeux métiers et capacités techniques Environnement technique Cloud : AWS Outils : Jira, Confluence, GitLab, Power BI DevOps : CI/CD, Terraform, Docker Stack : Java / Spring Boot, Angular, PostgreSQL Pratiques : Agile (Scrum/Kanban), DevOps, CI/CD, observabilité
Mission freelance
Data Product Manager/Environnement anglophone
Comet
Publiée le
Data governance
1 an
400-550 €
Île-de-France, France
Dans le cadre de la structuration de ses activités data à l’échelle mondiale, notre client recherche un Data Product Manager Senior pour piloter la conception et la mise en œuvre de modèles de données industriels et de solutions de reporting. Vous interviendrez sur un périmètre stratégique couvrant plusieurs applications déployées dans des usines à l’international, avec un objectif clair : standardiser, fiabiliser et valoriser la donnée au service de la performance industrielle. Vos responsabilités En tant que Data Product Manager, vous serez au cœur de l’interaction entre les équipes métiers et techniques. Vos missions principales : Comprendre les enjeux business liés à la performance industrielle Recueillir et structurer les besoins métiers Animer des ateliers avec les différentes parties prenantes Concevoir et formaliser les modèles de données (data modeling, business layer) Définir l’architecture fonctionnelle des solutions data Coordonner les équipes data (Data Engineers, BI, Architectes) Organiser les contributions autour du modèle "Data as a Service" Documenter les solutions et démontrer leur valeur Préparer les phases de mise en œuvre (budget, planning, roadmap) Formaliser les recommandations finales pour le lancement des projets
Offre d'emploi
Ingénieur de production OPS sénior
KEONI CONSULTING
Publiée le
AWS Cloud
DevOps
Service Delivery Management
18 mois
20k-60k €
100-450 €
Lille, Hauts-de-France
Contexte : Nous recherchons un OPS sénior (5 ans d'XP minimum) pour renforcer l'équipe s'occupant de l'exploitation d’un asset. Au sein d'une équipe Ops/Support du domaine vous intégrerez une équipe composée de : 3 OPS 1 Lead Tech OPS 1 DM 2 Supports MISSIONS - d'assurer l'exploitation des applications - de répondre aux demandes d'installation des livrables fournit par notre CDS - d'aider au diagnostic lors d'incidents ou de debug - En parallèle, il participera et travaillera en partenariat avec le PO technique sur le rebuild/refactoring afin de répondre à des enjeux de scalabilité et d'optimisation des coûts de l'architecture. - d'assurer les astreintes PIV (1 semaine par mois) La mission nécessite un réel investissement tant le projet est vaste et pluriel dans sa partie technique. Il y a beaucoup à apprendre et on sort souvent de sa zone de confort pour répondre efficacement aux exigences des clients. Livrables : • Garant de la bonne application des processus de production en transverse : évolutions et créations des stacks techniques • Garant de la cohérence de bout en bout des différents environnements • Organisation et pilotage de la gestion des événements impactant la production • Porte une vision auprès du domaine sur le RUN et facilite la priorisation de sujets d'amélioration • Accompagnement des équipes sur le delivery/recette, analyse des anomalies et facilitateur sur la communication inter-domaine au sein du domaine • Pilotage les incidents majeurs • Accompagne la réalisation de ces sujets ou les porte opérationnellement en fonction des besoins Compétences : Activités détaillées : - Contribuer au développement, à l'évolution et à la maintenance des outils d'industrialisation - Assurer le déploiement en environnement de préproduction et production des livrables fournit par notre CDS - Assurer le run de l'application en production (suivi de la QoS, monitoring, supervision, Incidentologies, debug et analyses) - Accompagner notre CDS dans leur intégration de livrable sous AWS - Accompagner les équipes support clients dans l'analyse et la résolution des incidents - En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus - Dans un contexte agile, être dans un esprit d’amélioration continue. - Vous concevez et développez les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. - Vous êtes référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements - Vous accompagnez l’équipe sur l’adoption des bonnes pratiques et nos outils DEVOPS - Vous participez quotidiennement aux tâches du backlog de l’équipe - Vous partagez et transmettez les informations (procédures, documentations, meetups, formations internes) - Vous participez à la réflexion sur les évolutions de la plate-forme en tant que membre à part entière de l’équipe - Vous contribuez à la diffusion de la culture et du savoir technique autour des bonnes pratiques de la production (cloud AWS) au sein de l’équipe et dans l’entreprise en général.
Offre d'emploi
Business Analyst SharePoint Online – Refonte Intranet (H/F)
RIDCHA DATA
Publiée le
Backlog management
Business Analyst
SharePoint
1 an
Île-de-France, France
Contexte de la mission Dans un contexte international et multi-entités , une grande organisation lance la refonte complète de son intranet basé sur SharePoint Online (Microsoft 365) . L’objectif est de mettre en place une plateforme moderne, unifiée et centrée utilisateur , permettant : un accès simplifié à l’information une meilleure collaboration entre les équipes une communication interne harmonisée à l’échelle mondiale Le Business Analyst jouera un rôle central d’interface entre les équipes métiers, les équipes IT et les parties prenantes internationales afin de garantir que la solution réponde aux besoins fonctionnels tout en respectant les standards du groupe. Objectifs du poste Recueillir et analyser les besoins métiers liés à la refonte de l’intranet. Contribuer à la définition d’une expérience utilisateur cohérente et homogène dans un environnement international. Traduire les besoins métiers en exigences fonctionnelles exploitables par les équipes techniques . Accompagner les métiers tout au long du projet : cadrage, conception, recette et déploiement. Missions principalesAnalyse & cadrage Identifier et cartographier les parties prenantes (métiers, communication, IT, régions/pays). Animer des ateliers de recueil des besoins (workshops, interviews, comités). Analyser les processus existants et identifier les axes d’amélioration. Formaliser les besoins sous forme de : use cases user stories parcours utilisateurs Conception fonctionnelle Rédiger les livrables fonctionnels : expressions de besoins spécifications fonctionnelles backlog produit user stories et critères d’acceptation Définir les modèles de données fonctionnels : métadonnées taxonomies navigation Contribuer à la définition de l’architecture fonctionnelle de l’intranet : sites hubs pages contenus Collaborer avec les UX/UI designers sur l’ergonomie et l’expérience utilisateur. Coordination & suivi Être l’interface entre les équipes métiers et techniques . Travailler avec les équipes techniques sur : SharePoint Online Power Platform SPFx si nécessaire Participer à : la priorisation du backlog la planification des évolutions Accompagner les phases de recette fonctionnelle : stratégie de tests cas de tests UAT Contribuer à la conduite du changement : supports utilisateurs communication interne formations. Contexte international Prendre en compte les enjeux multiculturels et multilingues . Assurer l’alignement entre besoins locaux et standards globaux . Interagir avec des équipes internationales en anglais . Livrables attendus Dossiers de cadrage fonctionnel Spécifications fonctionnelles User stories Parcours et personas utilisateurs Backlog priorisé Cahiers de recette Comptes rendus d’ateliers Environnement fonctionnel & technique Plateforme SharePoint Online (Microsoft 365) Outils associés Microsoft Teams Power Automate Power Apps Viva (Connections, Engage) Azure AD Méthodologie Agile / Scrum Compétences requisesCompétences fonctionnelles Analyse des besoins métiers Modélisation de processus Conception de parcours utilisateurs Rédaction de spécifications fonctionnelles Animation d’ateliers métiers Compétences techniques (non développement) Très bonne connaissance de SharePoint Online architecture sites métadonnées gouvernance Bonne compréhension de l’écosystème Microsoft 365 Sensibilité UX et ergonomie digitale Compétences comportementales Excellentes capacités de communication Esprit de synthèse Capacité à structurer l’information Autonomie et rigueur Sens du service Capacité à évoluer dans un environnement international Langues Anglais professionnel courant indispensable Français requis
Offre d'emploi
Buisness analyst / DATA ( trade finance ) - Denodo
AVA2I
Publiée le
Data quality
Microsoft Power BI
1 an
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation data au sein du métier Trade Finance, vous interviendrez sur la mise en place d’un Buisness Analyste/ DATA basé sur une plateforme de virtualisation de données. L’objectif est de : Centraliser et fiabiliser les données métiers Modéliser la donnée en fonction des besoins opérationnels Distribuer la donnée via API, reporting et applications Garantir la qualité et la gouvernance des données 🛠️ Missions 🔍 Analyse & cadrage Recueillir et analyser les besoins métier (ateliers, cadrage) Rédiger les spécifications fonctionnelles et user stories 🧠 Data & modélisation Analyser les modèles de données existants Mapper et intégrer les données (data virtualisation / denodo VQL) Participer à la construction du Data Product 🤝 Support & coordination Assurer un support fonctionnel auprès des équipes de développement Faire l’interface entre les équipes IT et les métiers 📊 Reporting & BI Concevoir et développer des dashboards et rapports ✅ Data Quality & Gouvernance Définir et implémenter des règles de qualité des données Contribuer à la gouvernance des données 🧩 Compétences fonctionnelles Bonne compréhension des besoins métier Une connaissance du Trade Finance est un plus 🌟 Soft skills Rigueur et esprit analytique Curiosité et proactivité Bon relationnel et communication ➕ Atouts Expérience en environnement bancaire ou financier Connaissance d’un progiciel Trade Finance (type TI+) Expérience sur des projets data complexes
Offre d'emploi
Business Analyst Data H/F
█ █ █ █ █ █ █
Publiée le
Data management
JIRA
Scrum
40k-45k €
Niort, Nouvelle-Aquitaine
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Concepteur Développeur Data (H/F)
Aleysia
Publiée le
Apache NiFi
BI
Data Lake
12 mois
40k-45k €
100-500 €
Paris, France
Si la Data est pour toi une passion plus qu'une compétence, rejoins notre univers technique qui t'attend de pied ferme avec ce poste de Concepteur Développeur Data ! 🚀 Ton challenge si tu l’acceptes : • Concevoir et développer des pipelines de données robustes et performants (modèle Bronze / Silver / Gold) avec un code documenté • Collaborer à la conception de l’architecture Data et à la structuration des flux (MDM, multi-sources) • Gérer la maintenance évolutive et corrective des flux de données • Participer activement à l’ amélioration continue des traitements et performances • Implémenter des contrôles qualité, traçabilité et tests pour fiabiliser les données • Suivre les bonnes pratiques (sécurité, gouvernance, CI/CD) et participer aux revues techniques • Travailler en méthodologie Agile/Scrum au sein d’une squad Data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2479 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois