L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 757 résultats.
Mission freelance
Data Governance Manager
Codezys
Publiée le
Conduite du changement
Data governance
Data management
6 mois
330-400 €
Bordeaux, Nouvelle-Aquitaine
Objectifs de la prestation Dans le cadre de la consolidation de sa gouvernance data, l'entreprise souhaite renforcer et structurer ses pratiques en s'appuyant sur un environnement technologique avancé, comprenant les plateformes Snowflake, Power BI et Datahub. Pour cela, l'équipe Data Management, composée de 4 professionnels, recherche un expert transverse afin de piloter la structuration, le déploiement et l'animation de la gouvernance opérationnelle. Mandat confié Déploiement du modèle de Data Stewardship Clarifier les rôles, périmètres et rituels entre Data Owners, Data Stewards et équipes techniques. Créer des kits d'onboarding, des standards et des supports pour accompagner les Data Stewards dans leur mission. Lancer et animer la communauté de Data Stewards afin de promouvoir une gouvernance partagée et efficace. Adoption & Data Catalog Renforcer l'adoption du Data Catalog (Datahub) et promouvoir les bonnes pratiques de gouvernance associées. Accélérer la documentation des assets data prioritaires pour assurer une meilleure compréhension et exploitation des données. Étendre la couverture du catalogue aux traitements d'intelligence artificielle (IA), intégrant ainsi la gouvernance dès la conception. Animation & transverse Organiser des ateliers avec les utilisateurs pour favoriser l'appropriation des outils et des méthodes de gouvernance. Faire émerger les irritants et structurer un backlog transverse pour répondre aux enjeux opérationnels. Intégrer la gouvernance lors des phases de cadrage des projets, en adoptant une approche 'governance by design'. Réactiver les communautés existantes, notamment les référents Power BI, afin de maintenir une dynamique de partage et de collaboration. Profil recherché Le candidat idéal devra posséder une expertise transverse en gouvernance data, avec une capacité à intervenir à la fois au niveau stratégique et opérationnel. Il devra démontrer des compétences en animation de communautés, en structuration de processus et en animation d'ateliers, tout en étant capable de travailler en étroite collaboration avec les équipes techniques et métier. Les propositions devront détailler la méthodologie proposée pour atteindre ces objectifs, ainsi que la démonstration de capacités similaires dans des environnements complexes et structurés.
Offre d'emploi
Data Engineer - GCP - CDI
Espritek
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
50k-65k €
140 €
Ivry-sur-Seine, Île-de-France
FnacDarty est le leader européen du retail spécialisé omnicanal, avec des marques iconiques telles que Fnac, Darty, Nature et Découverte, WeFix, engagé pour un choix éclairé et une consommation durable. Vous êtes passionné par les outils BI et la data ? Rejoignez la Data & AI Factory de FnacDarty, entité qui regroupe les compétences fonctionnelles et techniques qui contribue au développement de l’activité grâce à la richesse de nos données et aux technologies avancées d’exploitation. L’entreprise recherche un TechLead Data pour intervenir au sein de la squad Exploitation (Améliorer le pilotage opérationnel des magasins, optimiser les processus et soutenir les décision terrain) Description La mission nécessite un profil capable d’assurer à la fois : • un rôle de leadership technique, garant de la cohérence des choix d’architecture, de la qualité des développements et de l’industrialisation des solutions • un rôle opérationnel de développeur, pleinement impliqué dans la conception et la réalisation des pipelines, modèles et orchestrations. Vous interviendrez principalement sur les technologies GCP (BigQuery, Dataform, Cloud Composer,…) et contribuerez également, dans une moindre mesure, à la maintenance et à l’évolution de flux existants sous Talend. En binôme avec le PO, vous participerez au cadrage des besoins, à la structuration du backlog, à la définition des solutions techniques et à la sécurisation de la delivery. Missions principales • Participer au cadrage fonctionnel avec le PO et les parties prenantes métier pour comprendre les impacts business des données et ceux afin de réaliser des conceptions pertinentes et alignées avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Contribuer ponctuellement aux flux existants sous Talend. • Assure la maintenance corrective ou évolutive • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Mettre en place des bonnes pratiques de développement : tests, documentation, revue de code, versioning. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe • Assurer une veille technologique sur les outils GCP et les frameworks data. Livrables • Conceptions techniques des modèles, pipelines et orchestrations GCP. • Développements et industrialisation des traitements (BigQuery, Dataform, Cloud Composer). • Documentation technique à jour (architecture, transformations, procédures). • Contributions au cadrage et à la structuration du backlog avec le PO. • Mise en place ou renforcement des bonnes pratiques DataOps (tests, CI/CD, monitoring). • Assurer la TMA des pipelines existants (maintenance corrective et évolutive, résolution d’incidents, mises à jour techniques). Compétences Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • GCP : Expérience sur les outils BigQuery, DataForm, CoudComposer/AirFlow, Pub/Sub, Dataflow et d’autres services GCP liés aux données. • Talend : Connaissances et pratiques dans la conception et la gestion des workflows • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins Compétences transversales : • Esprit analytique et rigueur. • Leadership technique, pédagogie, capacité à embarquer. • Approche orientée résolution de problèmes et fiabilité opérationnelle. • Capacité à gérer des priorités multiples dans un environnement dynamique. • Capacité à travailler en équipe et à collaborer avec des parties prenantes variées. • Autonomie et force de proposition sur les solutions techniques. • Bonne communication et pédagogie pour expliquer les concepts techniques aux non-spécialistes. • Capacité à comprendre les besoins pour proposer aux métiers les solutions leur permettant d’utiliser efficacement les données et de prendre les bonnes décisions
Mission freelance
Lead Developer Java / VueJS
ESENCA
Publiée le
Google Cloud Platform (GCP)
IA
Java
1 an
Lille, Hauts-de-France
Description de la mission Le Lead Developer intervient sur la conception et le développement de produits digitaux critiques, tout en diffusant une culture d’excellence technique au sein de l’équipe. Missions principales1. Leadership technique & architecture Concevoir et garantir une architecture modulaire (Spring Modulith) Assurer l’isolation des modules et la cohérence des APIs internes Encadrer les choix techniques et accompagner les développeurs 2. Développement backend & frontend Développer des services backend robustes (Java, Spring, Hibernate) Concevoir des interfaces performantes en VueJS Gérer des modèles de données complexes (PostgreSQL, JSONB) 3. Performance & scalabilité Mettre en place et optimiser des mécanismes de cache distribué (Redis) Gérer les problématiques de sérialisation et d’invalidation Assurer la performance globale des applications 4. Qualité & tests Mettre en œuvre des pratiques TDD/BDD Développer des tests unitaires et d’intégration (TestContainers, Wiremock) Garantir la conformité des APIs (OpenAPI) 5. Innovation & IA Intégrer des solutions d’IA générative (Spring AI, Vertex AI) Concevoir des mécanismes de génération de règles métier et d’analyse Participer à l’ingénierie de prompts et à l’intégration applicative Compétences techniques Java (Spring / Spring Modulith) – Expert – Impératif VueJS – Confirmé – Impératif Google Cloud Platform (GCP) – Confirmé – Souhaitable IA Générative (Spring AI, Vertex AI) – Confirmé – Souhaitable Connaissances linguistiques Anglais professionnel – Impératif
Offre d'emploi
Data Scientist - IA Générative (H/F)
█ █ █ █ █ █ █
Publiée le
Python
Pytorch
Tensorflow
43 800 €
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Ingénieur sécurité CLOUD GCP
NETSEC DESIGN
Publiée le
Google Cloud Platform (GCP)
1 an
50k-75k €
400-650 €
78640, Villiers-Saint-Frédéric, Île-de-France
Nous recherchons pour notre client final grand compte un ingénieur sécurité cloud pour le maintien en condition opérationnelle des équipements de sécurité. Missions : Mise en place des infrastructures réseau et sécurité au sein des clouds GCP Mise en place des solutions d’interconnexion Support de niveau 3 sur les incidents opérationnels liés aux équipements de sécurité dans l’environnement cloud et les datacenters associés Identification et mise en place des correctifs et évolutions d’ingénierie si nécessaire Rédaction de procédures et de documents techniques à destination des équipes de support niveaux 1 et 2 Accompagnement des projets pour la mise en place des environnements réseau associés (flux, routage, etc.) Participation aux projets de modernisation des différents services réseau (firewalls, DNS, routeurs, etc.) Suivi des actions de remédiation afin de corriger les vulnérabilités de sécurité Mise en conformité des équipements, réseaux et dispositifs de sécurité concernés
Mission freelance
Ingénieur DevOps Senior Plateforme Cloud H/F
TechOps SAS
Publiée le
AWS Cloud
DevOps
Google Cloud Platform (GCP)
10 mois
550-650 €
Paris, France
Dans le cadre du renforcement de sa plateforme cloud, notre client recherche un Ingénieur DevOps / Platform Cloud senior pour concevoir, structurer et faire évoluer un environnement AWS robuste et hautement sécurisé. Vous interviendrez sur la création de modules Terraform industrialisés et maintenables, la structuration d’une architecture multi-comptes ainsi que la définition de standards de déploiement pour des environnements conteneurisés, serverless et traditionnels. Vous contribuerez à l’automatisation complète des pipelines CI/CD avec contrôles qualité et sécurité, au monitoring avancé, à la gestion de la résilience et à l’accompagnement des équipes dans la migration et l’adoption des bonnes pratiques cloud.
Offre d'emploi
DEVOPS
Peppermint Company
Publiée le
AWS Cloud
Bash
ELK
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Soutien opérationnel et technique Assurez la stabilité et la fiabilité des applications fonctionnant sur AWS (emplois EMR, charges de travail EKS, Redshift, Glue). Maintenir et dépanner les processus Jenkins, les pipelines CI/CD, les outils de surveillance, d'alertes et de visualisation (services AWS, ELK). Surveillez l'activité de la plateforme, l'utilisation du système et la consommation des coûts. Surveillez l'évolution de la charge de code et l'activité d'intégration Génie logiciel et outillages Refactoriser les scripts Bash en outils Python maintenables. Améliorer la discipline de l'ingénierie : tests, gestion des versions, documentation, structure du code. Soutenir les équipes dans l'adoption de pratiques d'ingénierie logicielle plus solides. Livrables de migration Migrez les pipelines Jenkins vers un nouvel orchestrateur. Prendre en charge la migration des données vers Azure et AWS Amadeus Datamesh. Adapter les services de plateforme existants et les composants applicatifs au nouvel environnement. Contribuer à des normes unifiées CI/CD entre les équipes ATI. Une certaine compréhension des concepts du Big Data et de la gestion du cycle de vie des données tels que les partitions, l'évolution des schémas, les contrôles de qualité des données et l'optimisation de base des coûts/performances est appréciée.
Offre d'emploi
Data Engineer (H/F)
AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API
3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
Mission freelance
DBA AWS / Administrateur de base de données
Tenth Revolution Group
Publiée le
Amazon DynamoDB
AWS Cloud
Mongodb
3 ans
190-650 €
Lille, Hauts-de-France
Dans le cadre de l’évolution de son positionnement cloud, notre client recherche un DBA orienté AWS avec une forte appétence pour le développement et l’automatisation. Le rôle s’inscrit dans une transformation où les activités DBA traditionnelles évoluent vers un scope plus large mêlant gestion des données, développement et innovation . À ce titre, vos missions seront les suivantes : Administrer, optimiser et maintenir les bases de données ( AWS RDS, DynamoDB, MongoDB ) Garantir la performance, la disponibilité et la sécurité des environnements data Développer des endpoints API en Python pour exposer et exploiter les données Automatiser l’infrastructure via des playbooks Terraform Participer à des POC autour de nouvelles solutions Cloud/Data Rédiger de la documentation technique et contribuer à la veille technologique
Offre premium
Mission freelance
Ingénieur Cloud AWS - Data & IA
TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas
36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
Offre d'emploi
Data Engineer/Architecte
OBJECTWARE
Publiée le
Apache Spark
AWS Cloud
DBT
3 ans
41k-91k €
400-710 €
Île-de-France, France
Missions principales Conception et optimisation de pipelines de données à grande échelle (batch, streaming, API) Structuration des données selon le modèle Médaillon (Bronze / Silver / Gold) Développement et industrialisation via DBT, Spark et Iceberg Orchestration des workflows ETL/ELT via Airflow Déploiement cloud sur AWS et infrastructure as code avec Terraform Conteneurisation des traitements ( Docker, Kubernetes ) Supervision, observabilité, gestion des incidents et qualité des données Documentation et conformité RGPD Accompagnement de profils juniors
Offre d'emploi
Expert Active Directory & Cloud
TDS
Publiée le
Active Directory
Azure
Azure Active Directory
1 an
50k-70k €
500-650 €
Courbevoie, Île-de-France
Dans le cadre de la modernisation et de la sécurisation d'un système d’information, nous recherchons un Expert Active Directory & Cloud pour piloter plusieurs projets stratégiques autour de l’identité, de la sécurité et des infrastructures. Vos missions principales seront : Refonte DNS & sécurisation AD Pilotage de la refonte de l’infrastructure DNS (séparation DC / DNS) Migration des zones DNS (directes et inverses) Mise en place des ACLs et durcissement des accès Définition d’un modèle RBAC robuste Application d’un modèle de sécurité basé sur le tiering AD Identity & Access Management (Azure / Entra ID) Gestion des identités hybrides via Azure AD Connect Administration des rôles RBAC Azure Déploiement et gestion de la MFA Mise en place des politiques de sécurité (password, accès) Automatisation & IAM Automatisation via PowerShell / Python Implémentation de SailPoint IdentityNow Gestion du provisioning / deprovisioning (HR → AD / Cloud) Mise en place de workflows IAM (Okta, SCIM) SSO & fédération des identités Intégration Okta / Active Directory / Entra ID Déploiement SSO & MFA à grande échelle Gestion des accès adaptatifs Audit & gouvernance des accès Audit des droits Azure & GCP Identification des accès excessifs / comptes orphelins Mise en œuvre des remédiations (Zero Trust) Monitoring (Centreon, Varonis) Résilience & continuité Mise en place d’un PRA Active Directory Déploiement d’environnements de secours sur Azure Tests et documentation des procédures DRP Documentation & coordination Rédaction des procédures (Confluence) Collaboration avec équipes Réseau, SecOps, CISO et Architectes
Offre d'emploi
🔎 Data Engineer – Python / Spark / Databricks / AWS
Hexateam
Publiée le
AWS Cloud
Python
Spark Streaming
1 an
Paris, France
Mission : Data Engineer Confirmé – Python / Spark / Databricks / AWS Dans le cadre de l’évolution d’une plateforme Data centralisée, nous recherchons un Data Ingénieur confirmé pour intervenir sur le développement et l’optimisation de pipelines de données dans un environnement Big Data et Cloud AWS. Stack technique : Python • Spark • Databricks • SQL AWS (S3, Airflow, Glue, CloudWatch) Git • CI/CD • Agile / Scrum ✅ Profil recherché : Expérience confirmée en Data Engineering Bonne maîtrise de Spark / Databricks Expérience Cloud AWS
Mission freelance
Ingénieur DevSecOps AWS
Groupe Aptenia
Publiée le
Argo CD
AWS Cloud
DevOps
6 mois
Bordeaux, Nouvelle-Aquitaine
Concevoir et maintenir l'infrastructure as code avec Terraform sur un environnement AWS (ECS, Aurora, Lambda, S3, SQS/SNS, EventBridge, Step Functions) Mettre en place et opérer les pipelines CI/CD via GitLab CI en appliquant les pratiques GitOps Assurer la conteneurisation des applications avec Docker. Garantir la qualité logicielle via SonarQube Déployer et opérer les outils de sécurité applicative (Checkmarx SAST/SCA/KICS, WIZ) et cloud (AWS Inspector, AWS Security Hub, Prowler, TestSSL) Mettre en œuvre l'observabilité et le monitoring des environnements via CloudWatch, Grafana et la création de Synthetics dans une approche SRE Comprendre les architectures applicatives backend (Python) et frontend (Angular, JS/TS) pour contextualiser les enjeux de sécurité Utiliser l'IA pour la génération, la revue et l'optimisation de code ainsi que pour l'automatisation des tests
Offre d'emploi
Ingénieur devops AWS
OBJECTWARE
Publiée le
DevOps
3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client un.e ingénieur devops AWS. Vos missions seront : Conception, développement et maintenance de l'automatisation de l'infrastructure à l'aide d'outils d’Infrastructure as Code. Encadrement d'une équipe d'ingénieurs SRE afin de garantir la fiabilité, la sécurité et la scalabilité de la plateforme. Pilotage des processus d'automatisation et de gestion des incidents, conformément aux principes SRE. Contribution à l'évolution du cycle de vie du développement logiciel (SDLC) afin de répondre aux exigences métier, de gouvernance et opérationnelles. Collaboration avec les parties prenantes pour améliorer les pratiques de développement, la sécurité et la conformité. Expertise : Ingénierie logicielle : Expérience confirmée dans le développement de fonctionnalités, d'API ou d'outils d'automatisation en environnement cloud ou d'entreprise. Infrastructure as Code (IaC) : Expertise approfondie d’outils de déploiement et de gestion de configuration. Supervision et incidents : Bonne maîtrise des systèmes de supervision, alertes et gestion des incidents. Architecture système : Conception d’architectures scalables, sécurisées et résilientes. DevSecOps et CI/CD : Maîtrise des pipelines CI/CD et des stratégies de déploiement. Expertise technique : Plateforme de gestion de code source d’entreprise : Expérience de son administration et de son exploitation. Cloud : Connaissance des principaux fournisseurs cloud (environnements hybrides, contraintes de résidence des données). Sécurité et conformité : Maîtrise des enjeux de gouvernance et de conformité. Langages et outils : Scripts (ex. : Bash, PowerShell) et outils d’automatisation. Outils collaboratifs : Outils de gestion de projet et de documentation. Compétences supplémentaires : Collaboration avec des équipes pluridisciplinaires et parties prenantes. Excellentes capacités d’analyse et de résolution de problèmes.
Mission freelance
Architecte Fonctionnel / AMOA Data Senior
CAT-AMANIA
Publiée le
Big Data
3 mois
400-750 €
Île-de-France, France
Architecte Fonctionnel / AMOA Data Senior Nous recherchons pour le compte d'un grand groupe leader dans le secteur de l'assurance et de la protection sociale, un Architecte Fonctionnel / AMOA Senior pour intervenir au sein de sa Direction des Systèmes d'Information. La mission s'inscrit dans un contexte SI data-centré au cœur d'un environnement Big Data. Vous intégrerez l'équipe Gouvernance & Usages Data pour intervenir sur des projets stratégiques, de la phase de cadrage jusqu'au déploiement en production. Missions et Responsabilités En étroite collaboration avec les urbanistes fonctionnels, les chefs de projets, la MOA et les directions métiers, vos responsabilités seront les suivantes : Cadrage et Analyse : Accompagner la MOA et le métier durant les phases de définition des besoins. Identifier, instruire les demandes d'évolutions et s'assurer de la faisabilité des solutions en coordination avec les ingénieurs data et les experts solutions. Conception et Modélisation : Concevoir et porter les solutions technico-fonctionnelles. Réaliser la modélisation de données et participer à la mise à jour de la cartographie applicative du SI décisionnel et opérationnel. Stratégie et Urbanisation : Participer à la définition de la trajectoire urbanistique du SI à court et moyen terme, en assurant le lien permanent avec les urbanistes du groupe. Accompagnement au Delivery : Co-construire les spécifications fonctionnelles avec les ingénieurs Data. Apporter une expertise fonctionnelle lors de l'élaboration de la stratégie de test et participer à la recette avec la MOA. Pilotage et Reporting : Participer aux comités, communiquer sur l'état d'avancement (plannings, chiffrages, budgets) et assurer la remontée d'alertes ou d'opportunités auprès du management. Profil Recherché Expertise Data : Maîtrise approfondie des enjeux liés à la donnée, de la modélisation et de l'architecture des systèmes décisionnels. Compétences AMOA : Capacité démontrée à traduire des besoins métiers complexes en solutions fonctionnelles structurées. Soft Skills : Excellentes capacités de communication, sens de l'analyse, rigueur et aptitude à la coordination multi-acteurs.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2757 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois