Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 308 résultats.
Mission freelance
Data Engineer AI Integration
Publiée le
IA Générative
Python
Pytorch
10 mois
460-590 €
Île-de-France, France
Télétravail partiel
Le Data Engineer aura pour mission principale d’interagir avec les parties prenantes pour capturer les besoins en données, extraire les data dumps, configurer des Vector Databases (VDBs) et développer/configurer une compétence RAG (Retrieval-Augmented Generation) afin d’améliorer la performance des solutions d’IA générative. Il sera en charge de tester les data pipelines pour garantir des processus efficaces en lien avec les besoins métiers et IA. Ses principales responsabilités incluent : Être le premier point de contact pour les utilisateurs internes concernant les besoins en données des applications d’IA générative Collaborer étroitement avec les Product Owners, développeurs et ingénieurs IA pour recueillir et documenter les besoins Capturer et documenter les besoins et lacunes de données et proposer des stratégies correctives Valider la qualité des données extraites (complétude, exactitude, pertinence) Configurer et optimiser l’utilisation de bases de données vectorielles pour l’accès rapide aux données Tester et ajuster les compétences RAG pour garantir la pertinence contextuelle des informations générées Effectuer des tests complets sur les pipelines de données, participer à l’évaluation de la performance des modèles IA
Mission freelance
Data Scientist Junior (h/f)
Publiée le
1 mois
400-450 €
95000, Cergy, Île-de-France
Télétravail partiel
Introduction & Résumé: Le rôle de Data Scientist Junior est essentiel pour analyser la performance des outils de prévision au sein du département de Recherche Opérationnelle, contribuant ainsi à l'optimisation des revenus de l'entreprise. Le candidat idéal possède une connaissance approfondie de la modélisation mathématique et statistique, ainsi que des compétences en Machine Learning et en Python. Principales Responsabilités: Le Data Scientist Junior aura pour mission de: Analyser la performance d’un moteur de prédiction lié à l’overbooking. Contribuer à d'autres moteurs de prédiction et d'optimisation dans le projet FIT (Freight Intelligence Techniques). Exigences Clés: Connaissance approfondie de la modélisation mathématique et statistique. Compétences en Machine Learning. Maîtrise des bonnes pratiques Python. Expérience avec les outils : Spark, Python, Git, Bash, SQL. Compréhension des environnements Unix/Linux. Bon niveau d’Anglais écrit et oral. Expérience avec GCP (Google Cloud Platform). Doctorat en Mathématiques ou en Physique. (est un plus). Autres détails: Ce poste est basé à Paris et Amsterdam, au sein du département de Recherche Opérationnelle.
Offre d'emploi
MOA / BA - Mise en place d'un Datalake Hadoop
Publiée le
AMOA
Big Data
Business Analysis
55k-65k €
Île-de-France, France
Télétravail partiel
Pour mon client bancaire, je recherche MOA / BA - Mise en place d'un Datalake Hadoop. Vous interviendrez sur les sujets liés aux métiers du Financement Structuré et du Risk Management. Recueil des besoins et animation d’ateliers avec les équipes métiers (Financing & Risk) Rédaction de spécifications fonctionnelles claires et structurées Contribution à la modélisation des données et au design fonctionnel Préparation, exécution et suivi des tests utilisateurs Présentation des livrables aux équipes métiers et rédaction de synthèses Accompagnement des utilisateurs dans la conduite du changement Suivi de la qualité de production et amélioration continue
Offre d'emploi
Responsable projets Data BI - CDI - Belgique - Bruxelles
Publiée le
BI
24 mois
70k-77k €
385-770 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Responsable Projet Data (H/F) - poste en CDI direct Liaisons fonctionnelles : À l'intérieur de l'entreprise : Le Directeur général et l'ensemble des salariés A l'extérieur : • Les squads Data, les squads en charge des données de référentiel, le service Etudes et Mesures • Les Direction Systèmes d'informations, les responsables des pays (Espagne / Pologne /Portugal / France / Slovénie / Luxembourg) • Prestataires : les intégrateurs, Ingénieur Data, Directeur de projet externe • Industriels (clients) Description générale du poste : Le Responsable projet Data (H/F) joue un rôle central dans la gestion des données, qui portent sur l'intégralité de la fiabilité des prestations vendues aux industriels. À ce titre, il doit définir et mettre en œuvre la stratégie globale de gestion des données disponibles, maintenir l'existant et identifier les opportunités, tout en s'inscrivant dans les modalités définies par le Mouvement. C'est un poste clé qui comporte les dimensions suivantes : - Techniques : manipulation de la donnée, utilisation approfondie des outils mis à disposition, - Stratégiques : enjeux, opportunité, sécurité, - Relationnelles : avec les pays, la DSI, une multitude d'acteurs variés - Une forte sensibilité sur la dimension gestion des systèmes d'informations est attendue Les missions principales : • assurer la qualité et la fiabilité des données en coordonnant avec des acteurs internes - externes • contrôler et mettre à jour les données référentiels spécifiques à notre client • construire, maintenir et faire évoluer les rapports mis à disposition • contrôler et valider la sécurité de l'accès aux données (rapports et données) • piloter la mise en qualité de l'ensemble des données, avec les pays • Participer au développement des services
Mission freelance
230156/Expert Data SQL/SSIS/Teradata/kubernetes - Lyon
Publiée le
Microsoft SSIS
3 mois
Lyon, Auvergne-Rhône-Alpes
Expert Data SQL/SSIS/Teradata/kubernetes- Lyon Tâches : • Support data ( MS SQL & SSIS) • Recetter les infras livrées (gestion des droits, des circuits de livraison, des performances) • Echanger avec l'entité Infra & l'entité cliente Profil recherché : • Expérience projets de migration (mode usine, industrialisation de transformation de procédures) • Expérience MS SQL, SSIS • Expérience développement & tests • Teradata serait un plus • Environnement Kubernetes • Aisance rédactionnelle (documentation à fournir aux développeurs) Expected skills Skills Skill level Terradata Advanced SQL Expert SSIS Confirmed KUBERNETES Advanced
Offre d'emploi
Ingénieur Devops / AWS / DataOps (Pas de profils Data Engineer / Data Scientist)
Publiée le
AWS Glue
3 ans
40k-60k €
400-600 €
Île-de-France, France
Télétravail partiel
Pour l'un de nos clients nous recherchons un(e) Ingénieur Devops / AWS / DataOps , qui sera amené à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers. Les principales missions sont les suivantes : Administration de la plateforme Data et de ses outils Administrer les composants Dataiku et CloudBeaver de la plateforme (installation, configuration, monitoring, backup, montées de version…) sur AWS Faire évoluer et gérer le maintien en conditions opérationnelles de l’environnement analytics et data science axé sur Dataiku (DSS, Fleet Manager, Spark sur EKS) Accompagner les utilisateurs sur les best practices et l’industrialisation des projets métiers Support et expertise technique Résoudre les incidents impactant les plateformes Conseiller les équipes du Data Office (Data engineers / Data scientists / Data analysts / BI engineer) sur les choix d’implémentation (architecture et technologie) Réaliser des audits techniques, des analyses de performance (requêtes SQL, jobs Spark, fonctions Lambda, entraînement modèles ML, …) ou des PoC. Evolution de l’infrastructure : Evaluer l'infrastructure actuelle et proposer si besoin une stratégie de modernisation progressive des composants legacy (IaaS) vers des solutions cloudnatives (PaaS/SaaS/Serverless), en intégrant les pratiques DevOps (IaC, CI/CD, automatisation) et FinOps Développer et implémenter les nouveaux patterns d’acquisition et de traitement de données (micro-batch, streaming, event-driven, transactionnel)
Offre premium
Offre d'emploi
Data Architecte Databricks - Paris
Publiée le
Databricks
65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Consultant(e) AMOA Recette Décisionnel
Publiée le
AMOA
Big Data
Business Intelligence
6 mois
40k-50k €
400-450 €
Paris, France
Télétravail partiel
Contexte du projet : Dans le cadre du maintien en conditions opérationnelles et de l’évolution d’applications décisionnelles stratégiques , nous recherchons pour notre client bancaire, un Consultant expert en Recette & AMOA Décisionnel (H/F). Vous accompagnez les équipes métiers et techniques dans les activités de recette , de conception fonctionnelle et de support à la production applicative , au sein d’un environnement data et BI à fort enjeu. Le projet s’inscrit dans une démarche de transformation et d’industrialisation des processus décisionnels, en lien avec les équipes MOA, MOE, Data Platform et Métiers . Activité de Recette : Élaborer et rédiger le plan de tests (cas de tests, scénarios, jeux de données) Exécuter les différents types de tests : recette fonctionnelle, d’intégration et de non-régression Analyser les résultats : conformité, détection et qualification des anomalies Déclarer et suivre les anomalies dans les outils Banque de France Produire les rapports de tests exécutés et bilans de recette Activité de Conception fonctionnelle : Collecter et analyser le besoin métier et rédiger les cas d’usage Réaliser les modélisations fonctionnelles (diagrammes d’activités, de séquence, architecture fonctionnelle) Rédiger les spécifications fonctionnelles générales et détaillées , ainsi que les règles de gestion et exigences non fonctionnelles Consigner les livrables dans JIRA / Confluence Activité de Support à la Production : Analyser les incidents de production (fonctionnels et métiers) Assurer le suivi et la vérification des correctifs Contribuer au pilotage et à la communication autour des incidents
Offre d'emploi
HEAD OF DATA GOVERNANCE
Publiée le
Collibra
Snowflake
Tableau Desktop
3 ans
34k-76k €
370-710 €
Île-de-France, France
Télétravail partiel
Bonjour à tous ☺️ Je recherche pour l'un de mes clients un HEAD OF DATAGOVERNANCE dans le cadre d'un démarrage ASAP ! Ce dernier devra piloter et faire évoluer la gouvernance des données internes, sous la supervision du Chief Data Officer. Missions principales : Définition et mise à jour de la roadmap de gouvernance des données avec le CDO et déploiement de nouvelles initiatives stratégiques. Animation des comités Data et coordination des instances de gouvernance. Assurer le reporting sur l’efficacité du dispositif et proposition d’axes d’amélioration. Optimiser la plateforme Collibra et accompagnement de son évolution fonctionnelle. Superviser la qualité des données. Coordination de l’écosystème data : (Snowflake, Collibra, Tableau). Coordination du réseau des data manager et renforcement de leur compétences en Datamanagement. Compétences requises : • Diplôme de niveau Master ou école d’ingénieur spécialisée en systèmes d'information, Data & Analytics, ou gestion d'entreprise. • Nombre d'années d'expérience : +10 ans • Expérience confirmée en Data Governance, avec expertise sur Collibra/snowflake/tableau • Excellentes compétences analytiques. • Expérience en coordination de réseaux et d’équipes distribuées. • Compétences relationnelles pour interagir avec des parties prenantes de haut niveau. • Vision stratégique pour anticiper et proposer des évolutions pertinentes. • Expérience d’animation de communautés et conduite du changement. • Capacité à maintenir la cohérence avec des standards internationaux.
Mission freelance
Manager Platform Data & Analytics
Publiée le
CoreData
6 mois
500-650 €
Paris, France
Bonjour, Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un manager Platform Data et Analytics. Cette mission concerne la gestion transitoire d’un poste de manager Platform Data et Analytics chez le client, en attendant le recrutement d’un successeur. Elle inclut la prise en main, le pilotage des missions ainsi que le transfert des responsabilités : · Handover pour prendre la main sur les missions · Pilotage des missions · Handover pour transférer la mission vers le successeur. Les deux missions principales sont : 1. Assistance au pilotage de la Federated Data Platform 2. Pilotage IT du projet SSOT (Single Source of Truth) En tant que Data Product Manager au sein des équipes Corporate IT, votre mission principale est de piloter les évolutions (via les quaterly releases) via la joint design autorithy & d'être en support eux entités. En travaillant & en étant aligné avec les directeurs Data et travaillant de concert avec le data / solution architect et le Cloud Architect la mission couvre : · Définition et pilotage de la roadmap produit : Élaborer et maintenir la feuille de route stratégique de la plateforme et des services data partagés, en tenant compte des besoins métiers, des priorités et des évolutions des éditeurs (par exemple roadmap MS Fabric). · Identification et valorisation des synergies : Collaborer avec les divisions, les régions et les fonctions Corporate pour détecter les opportunités de mutualisation et maximiser la valeur ajoutée des initiatives data à l’échelle mondiale. · Gestion des évolutions et arbitrages : Piloter les demandes d’évolutions de la plateforme avec les divisions et les régions, coordonner les arbitrages et veiller à l’alignement avec la stratégie data globale. · Garant du Delivery et du Run : Superviser le développement et le bon fonctionnement des produits data (Federated Data Platform), suivre les indicateurs de performance (KPI) et assurer un support continu aux utilisateurs. · Gouvernance des services data : Animer la gouvernance data autour de thèmes clés tels que le Federated Data Platform (avec la joint design authority) en impliquant les parties prenantes des divisions et régions. · Support à la réussite des Use Case : S’assurer que la plateforme répond aux besoins des programmes stratégiques (Programme Hero, ORION, ESG, …) et accompagne efficacement la réalisation des use cases data (des divisions, régions, corporate). · Accompagnement au changement et formation : Être le point de contact privilégié pour le déploiement et l’adoption des solutions, organiser la montée en compétence des équipes et recueillir les feedbacks pour améliorer les services. Remarque: le partenaire de la Federated Data Platform est la société ONEPOINT (En France)
Mission freelance
Scrum master Data H/F
Publiée le
Agile Scrum
Azure Data Factory
Google Cloud Platform (GCP)
2 ans
500-600 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Scrum master Data H/F à Paris, France. Les missions attendues par le Scrum master Data H/F : L’objectif est de mettre en place un cycle agile sur l’ensemble des activités de l'équipe de Dev du département et de piloter le délivery (jalon, budget, RAF fonctionnel, qualificiation des chiffrages, ...) ainsi que d'être le point d'entrée de l'équipe de dev dans les différentes instances. Le savoir être sur ce poste sensible est important puisque ce poste est une vitrine de la qualité du travail fait par l'équipe. Une rigueur d'exécution et une qualité de communication est nécessaire
Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)
Publiée le
Snowflake
6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Offre d'emploi
Architecte Big Data GCP & Cloudera (H/F)
Publiée le
Cloudera
Google Cloud Platform (GCP)
1 an
55k-70k €
550-660 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Architecte Big Data confirmé maîtrisant les environnements GCP (Google Cloud Platform) et Cloudera , capable d’allier vision stratégique et excellence technique. En tant qu’Architecte Big Data, vous interviendrez sur des projets de transformation data à grande échelle : Concevoir et faire évoluer des architectures Big Data hybrides (Cloud & on-premise). Définir la stratégie de données et les bonnes pratiques de gouvernance, sécurité et performance. Encadrer les équipes techniques (Data Engineers, DevOps, Data Scientists). Piloter les choix technologiques sur les écosystèmes GCP (BigQuery, Dataflow, Pub/Sub, Composer, Dataproc) et Cloudera (CDP, HDFS, Hive, Spark, Kafka) . Garantir la scalabilité, la résilience et l’optimisation des coûts des plateformes data. Participer aux revues d’architecture et à la veille technologique sur les solutions Cloud et Open Source.
Mission freelance
DIRECTEUR DE PROJET INFRASTUCTURES DATA CLOUD
Publiée le
Azure
microsoft
18 mois
100-600 €
Paris, France
Télétravail partiel
CONTEXTE : EXPERIENCE : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Directeur de projet Spécialités technologiques : Cloud, Infrastructure, Sécurité informatique, Gestion de la Connaissance, Reporting Le projet Data Cloud est porté par la Branche Grand Public et Numérique Actuellement, Le Groupe possède 8 plateformes Data on-premise. L’objectif du projet Data Cloud est de déployer une plateforme Cloud Lakehouse mutualisé afin de rationaliser les plateformes existantes, optimiser les couts et développer des usages à forte valeur L’infrastructure technique du projet Data Cloud sera à déployer chez Microsoft Azure en utilisantprincipalement le service Azure Databricks Toutefois, tous les services déployés chez Azure seront à homologuer par la direction i-TEAM/STRS afin d’assurer la sécurité de notre SI. Des experts techniques du Cloud issus de la direction i-TEAM/AIDC et des ressources externes de chez Microsoft feront également partie de cette équipe projet afin d’accompagner le projet Data Cloud dans le déploiement de cette infrastructure Cloud L’ensemble de ces travaux d’homologation, de déploiement et d’accompagnement d’expertise Cloud seront à piloter par le Directeur de Projet recherché MISSIONS Un Directeur de projet est donc recherchée afin de piloter les travaux d’Infrastructures demandés par le projet Data Cloud aux directions i-TEAM/AIDC et i-TEAM/STRS Dans ce cadre, les directions i-TEAM/AIDC et i-TEAM/STRS souhaitent être accompagné afin de : • Diriger le projet en : o Garantissant la pertinence et l’opportunité du déploiement des services d’infrastructures o Etant responsable de toutes les décisions importantes o Validant les recettes définitives du projet en lien avec le client o Menant toute action pour mener le projet à bonne fin o Gérant et animant la communication auprès des équipes et des différentes instances o Préparant et pilotant la conduite du changement • Gérer les ressources en : o Conduisant, optimisant et en étant responsable de l'ensemble des ressources du projet (humains et budget) o Etant responsable de la gestion financière du projet ainsi que de toutes les exigences définies (qualité, coût, délai...) Expertise souhaitée 2.4. Livrables attendus • Plan de l'organisation du projet et livrables associés • Reporting sur l'alignement du projet • Livrables de la comitologie projets • Plan de communication / conduite du changement et livrables associés • Plan de gestion des ressources et livrables associés 2.5. Profils/compétences souhaités • Maitrise de l'élaboration et la réalisation des plans relatifs aux produits/services stratégiques pour Le groupe. • Expertise dans la prise en compte des besoins, de leurs évolutions et dans l'accompagnement à la prise de décision raisonnée. • Maitrise de la gestion de la relation client • Expertise dans la gestion de projet et portefeuille de projets. • Très bonne connaissance et capacité à intégrer la dimension développement durable dans les solutions informatiques • Maitrise des risques et du management de la qualité et de la sécurité informatique (normes, bonnes pratiques, gestion de la connaissance, réglementation,...) • Maitrise de la gestion des compétences sur le projet • Capacité à intégrer le contexte et le SI client concerné par le projet • Maitrise de l’Infrastructures SI et bonne connaissance de la technologie Cloud
Offre d'emploi
Data Engineer Cloud GCP BigQuery F/H
Publiée le
50k-70k €
Ivry-sur-Seine, Île-de-France
Télétravail partiel
Description de la Mission : Analyse et Conception Participer à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. Utiliser l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en oeuvre des projets. Être force de proposition sur l'amélioration de notre stack Data. Développement et Intégration Concevoir, développer et maintenir les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale. Identifier et résoudre les goulots d'étranglement et les problèmes de performances dans les flux de données. Qualité, Maintenance et Supervision Mettre en place des processus et des contrôles pour garantir la qualité des données. Concevoir et mettre en oeuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou évolutive. S'assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe. Documentation, Support, Pilotage Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation). Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le déploiement. Environnement Technique : Langages/Framework : SQL, BigQuery, Python, Shell. Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend. Base de données : BigQuery, Teradata, SQL Server, IBM DB2.
Offre d'emploi
Data Analyst H/F
Publiée le
Data analysis
Microsoft Power BI
SQL
Île-de-France, France
Télétravail partiel
Les principales missions sont les suivantes : -Sécuriser la gestion de l'actualisation de l'offre Epargne Financière au sein de LEA en lien avec les équipes partenaires distributeurs et producteurs -Faire évoluer la solution, dans le respect des standards up to date : Implémentation de change à valeur ajoutée pour le business, traitement de la dette technique -Contribuer à la gestion du RUN, à l’augmentation de la robustesse de la solution -Renforcer la supervision et la qualité de données Ce serait un plus si vous aviez de l'expérience en : Visual Basic
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1308 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois