L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 569 résultats.
Mission freelance
Chef de Projet Supply Chain - WMS (Manhattan) (F/H)
Experis France
Publiée le
12 mois
Lille, Hauts-de-France
Experis Lille recherche pour l'un de ses clients un Chef de Projet Supply Chain - WMS (Manhattan) (F/H) Experis Lille recherche pour l'un de ses clients un Chef de Projet Supply Chain - WMS (Manhattan) (F/H) Vos missions Piloter l'ensemble des projets liés à l'évolution et au déploiement de notre WMS (Manhattan). Analyser les besoins métiers, proposer des solutions fonctionnelles et optimiser les processus Supply Chain. Coordonner les différents acteurs : équipes internes, prestataires externes, intégrateurs. Participer à la configuration, aux tests et au paramétrage du WMS. Assurer le suivi post-déploiement, la formation des utilisateurs et la conduite du changement. Garantir la performance, la fiabilité et l'amélioration continue des solutions logistiques.
Offre d'emploi
Consultant Data Engineer Informatica
VISIAN
Publiée le
AWS Cloud
Informatica
1 an
Île-de-France, France
Contexte L'un des objectifs majeurs du plan de transformation DATA d'un grand groupe média est de développer les applications DATA qui permettent aux métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI, et de déployer des applications. Dans ce cadre, ce groupe a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100 To de données par jour : Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique Socle vidéo, navigation et calcul des audiences AI pour recommandation des programmes Feature Store Moderniser les flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice
Mission freelance
Data Engineer GCP H/F
LOMEGARD
Publiée le
Ansible
Apache Airflow
Google Cloud Platform (GCP)
6 mois
400-480 €
Île-de-France, France
Dans le cadre d’un accroissement d’activité et afin de renforcer l’équipe Data d’un grand acteur bancaire, notre client recherche un Data Engineer GCP expérimenté. La mission s’inscrit dans un environnement Big Data / Cloud GCP en pleine transformation, avec des enjeux forts autour de l’industrialisation des pipelines, de la qualité de données et de la mise à disposition de datasets fiables pour les équipes métiers et analytiques. La mission est basée en Île-de-France (IDF) avec 2 jours de TT par semaine. Votre rôle consiste à: Mettre en place les chaînes d’ingestion, validation, croisement et enrichissement des données. Alimenter et exploiter le Data Lake GCP (GCS) et produire des agrégats (J/H/M). Développer des pipelines batch & streaming (Spark, Kafka, Scala). Industrialiser les traitements via Airflow / Composer et CI/CD. Mettre à disposition les données (API, fichiers, dashboards). Participer à la mise en production de modèles statistiques. Documenter, corriger les anomalies, assister les équipes d’exploitation. Travailler en mode Agile (Scrum/Kanban) .
Mission freelance
DATA ARCHITECTE
Coriom Conseil
Publiée le
Collibra
KPI
Modélisation
12 mois
460-610 €
Lille, Hauts-de-France
Modèles conceptuels de données par contexte métier Dossier de de conception de KPI Analyse de la conformité des API et Data Set Compétences techniques Modélisation de données - Expert - Impératif Modélisation de KPI - Confirmé - Important Collibra - Confirmé - Souhaitable Data governance - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée ATTENTION LE POSTE EST UN POSTE DE DATA ARCHITECT Nous cherchons un data architect pour intégrer la plateforme Ressources Humaines: Data architecture * Conception de modèles conceptuels de données par contexte métier. * Identification des évènements métier par contexte métier. * Définition et formalisation des Business Terms, Business Attributes et Business Event dans Collibra. * Définition des Indicateurs Clés de Performance par contexte métier. * Définition des règles de qualité des Business Terms. * Analyse de la conformité des API avec la data architecture. * Analyse de la conformité des Data Set avec la data architecture. * Réalisation du data lineage. * Rédaction de dossier d'architecture data répondant aux demandes business exprimées en quarter plan * Participation à la data governance de la plateforme
Offre d'emploi
Data Engineer - Semarchy xDI (H/F)
Degetel
Publiée le
ETL (Extract-transform-load)
PowerBI
Sap BO
Strasbourg, Grand Est
💼 À propos de l’entreprise Créée en 2008, Technology & Strategy est une société de conseil franco-allemande qui accompagne ses clients sur des projets d’engineering, de digital et de consulting. Avec plus de 3 500 collaborateurs , répartis dans 27 agences et plus de 10 pays , nous évoluons dans un environnement international 🌍 Ce qui fait notre force : Une expertise technique reconnue Des valeurs fortes : Respect, Partage, Initiative, Excellence Une vraie diversité avec plus de 45 nationalités Des équipes engagées, communicantes et solidaires Un accompagnement clair pour faire évoluer votre parcours Un environnement de travail certifié #HappyAtWork Des projets innovants, concrets et à impact 💼 À propos du poste – Data Engineer (H/F) – Strasbourg Dans le cadre de nouveaux projets data, nous recherchons un Data Engineer pour rejoindre notre équipe strasbourgeoise et intervenir sur des projets dans le domaine bancaire . Vous évoluerez dans un contexte orienté data décisionnelle / BI , avec des enjeux forts autour de l’intégration, de la structuration et de la valorisation des données. 🛠️ Vos missions Concevoir, développer et maintenir des flux d’intégration de données ( ETL / ELT ) Intervenir sur des outils d’intégration, idéalement Semarchy xDI (ex-Stambia) Participer à la modélisation des systèmes décisionnels Travailler sur les bases de données et rédiger des requêtes SQL performantes Contribuer à l’alimentation et à l’exploitation des outils de Business Intelligence Collaborer étroitement avec les équipes data, BI et métiers Garantir la qualité, la fiabilité et la performance des données 🚀
Mission freelance
Architecte Data Plateforme AWS / Snowflake (H/F)
ALLEGIS GROUP
Publiée le
Agent IA
AWS Cloud
DBT
1 an
Paris, France
Teksystems recherche pour l’un de ses clients grands comptes un Architecte Data AWS / Snowflake (H/F) pour construire, structurer et sécuriser la plateforme data du client basée sur Snowflake et AWS , et accompagner les équipes pour garantir une plateforme performante, scalable et prête à accueillir des fonctionnalités IA . Ce rôle est structurant, durable , et s’inscrit au cœur de la transformation data. Vos missions : 1. Définir et faire évoluer l’architecture de la plateforme Architecture cible Snowflake/AWS Patterns d’ingestion (batch, CDC, near real-time) Modélisation (Data Vault, modèles analytiques) Exposition (BI, APIs, data apps) 2. Industrialiser le delivery data Standards CI/CD (dbt, ingestion, artefacts ML) Automatisation des déploiements Intégration Git / pipelines / qualité Réduction du time-to-market 3. Mettre en place une observabilité complète Suivi fraîcheur, volumétrie, succès/échec des pipelines Tests & qualité de données Performance Snowflake (temps, coûts, consommation) Dashboards RUN, alertes, SLAs 4. Sécuriser la plateforme RBAC, rôles Snowflake, data masking, row-level security RGPD, auditabilité, traçabilité Catalogage, lineage, ownership 5. Accompagner les équipes Support aux devs, pair programming, arbitrages techniques Challenge des choix existants Coordination avec infra / cloud / sécurité 6. Préparer et soutenir le RUN Normes de reprise, diagnostic, alerting Réduction de la dette technique Support N2/N3 Conception orientée exploitabilité
Mission freelance
[SCH] Ingénieur Réseau Build - 1469
ISUPPLIER
Publiée le
10 mois
300-345 €
Le Mans, Pays de la Loire
Dans le cadre du renforcement des équipes réseau, le client recherche un Ingénieur Réseau Build capable d’intervenir sur des environnements complexes et critiques, avec une forte dimension exploitation, automatisation et contribution aux projets techniques. La mission consiste à analyser et résoudre les incidents de niveau 2 en escalade des équipes RUN, tout en assurant la continuité de service et en escaladant si nécessaire vers le niveau 3 ou les éditeurs. Le consultant sera également en charge de traiter les demandes de changements via des configurations sur les équipements réseaux en responsabilité. En parallèle, il contribuera activement aux projets techniques transverses, au suivi de la capacité des ressources et au développement de la stack d’automatisation. Une attention particulière sera portée à la documentation, à l’amélioration continue des processus existants (ITIL) et à la qualité des échanges avec les différentes équipes internes et externes. L’environnement technique est riche et couvre notamment des équipements Cisco, Alcatel et Fortinet, des solutions SDN (ACI), SD-WAN, des infrastructures WIFI Aruba, des firewalls Palo Alto et Fortinet, ainsi que des solutions d’ADC (F5, Citrix Netscaler). Des compétences en automatisation (Ansible, Terraform, Python) sont attendues. Objectifs et livrables : -Analyser et résoudre les incidents de niveau 2 en escalade des équipes RUN -Escalader les incidents vers le niveau 3 ou les éditeurs si nécessaire -Traiter les demandes de changements via des configurations réseaux -Contribuer aux projets techniques transverses -Assurer le suivi de la capacité des ressources -Participer au développement de la stack d’automatisation (Ansible, Terraform, Python) -Rédiger et enrichir la documentation technique existante -Assurer une communication fluide avec les équipes internes et externes -Respecter les processus ITIL en vigueur
Offre d'emploi
Directeur·rice de Projets Transformation - Supply chain
Okara
Publiée le
ERP
Gestion de projet
WMS (Warehouse Management System)
6 mois
Lille, Hauts-de-France
Tu rejoindras le collectif Okara pour piloter un programme de transformation SI d'envergure chez l'un de nos clients majeurs du secteur Retail. Ton défi ? Orchestrer le remplacement d'une solution historique par une plateforme SaaS intégrée couvrant l'ensemble de la chaîne logistique. Dans un contexte de forte transformation et de respect d'échéances critiques, tu seras le·la garant·e de la cohérence fonctionnelle et technique du programme. Tu piloteras la relation avec l'éditeur, sécuriseras le planning multi-chantiers et animeras une gouvernance de haut niveau auprès des directions métiers et IT. C'est une opportunité unique de diriger un projet stratégique à fort impact opérationnel et budgétaire. Critères requis : - Tu justifies d'une expérience de plus de 10 ans dans le pilotage de projets de transformation SI ou Supply Chain. - Tu as déjà mené avec succès un programme de remplacement de WMS ou d'ERP dans un univers retail multi-sites. - Tu maîtrises la gestion contractuelle et le pilotage d'éditeurs externes. - Tu as une solide expertise en gestion budgétaire (CAPEX/OPEX) et reporting exécutif. - Tu es reconnu·e pour ton leadership transverse, ta rigueur sous pression et ton sens de la négociation. - Tu es à l'aise avec les méthodologies Agiles et le cycle en V. Pourquoi postuler ? Piloter ce projet, c'est prendre les commandes d'une transformation critique au sein d'une entreprise élue "Great Place To Work". Tu seras au cœur d'enjeux technologiques et métiers passionnants, de la digitalisation des flux export à la mise en place de solutions pour la seconde main. Ton action aura un impact direct sur l'efficience logistique d'un leader de la distribution. Mais rejoindre cette aventure, c'est aussi intégrer la squad Okara ! Tu profites de la dynamique d'un collectif d'expert·e·s qui favorise le partage de connaissances et l'entraide. Nous t'offrons un environnement stimulant où ton expertise est valorisée, tout en bénéficiant de l'accompagnement de proximité et des valeurs humaines qui font l'ADN d'Okara.
Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration
Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance
6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
Offre d'emploi
Senior Consultant Business Data Analyst
VISIAN
Publiée le
Data analysis
Python
1 an
Lille, Hauts-de-France
Contexte Nous recherchons un(e) Expérimenté ou Senior Consultant Business Data Analyst pour analyser notre base client afin d’orienter les décisions stratégiques de l’entreprise. Vous jouerez un rôle clé dans l’étude de la connaissance client, et dans la propagation de celle-ci au sein de l’entreprise. Pour ce faire, vous devrez à la fois être doté d’une forte appétence métier, du bagage méthodologique et technologique adéquat. Missions Animer le recueil de besoins métiers, le challenger puis le cadrer afin de s’assurer que les prérequis au développement sont bien réunis Analyser le portefeuille clients (segmentation, comportements, valeur, churn, fidélisation) Concevoir et piloter des études ad hoc à visée stratégique sur nos clients directs et ceux recrutés via nos partenaires afin d’apporter à l’entreprise une vision globale de son portefeuille Identifier des opportunités de croissance, d’optimisation et de ciblage Formuler des recommandations actionnables aux équipes métiers et à la direction Restituer les travaux en s’adaptant à l’audience (chef de projet, CODIR, COMEX), en faisant preuve de vulgarisation et d’impact, en ayant une posture adaptée au travers de supports de qualité Garantir la qualité, la fiabilité et la cohérence des données utilisées Construire et maintenir des tableaux de bord Power BI orientés exécutif (KPI stratégiques, storylines, pages synthèse) et animer des revues de performance auprès du COMEX/CODIR Assurer la maintenance et la documentation des travaux réalisés
Mission freelance
Ingénieur Réseaux Junior
Sapiens Group
Publiée le
Administration systèmes et réseaux
Agent IA
Cisco Identity Services Engine (ISE)
1 an
Paris, France
Contexte Nous recherchons, pour l’un de nos clients grand compte (CAC 40) du secteur bancaire, un(e) Ingénieur Réseaux Junior. Missions 5 ans d’expérience maximum. Nous recherchons un profil junior à confirmé, et non senior. Ingénieur Réseaux classique : câblage, et opérationnel terrain. Capacité à travailler à la fois sur du Projet et du RUN (les deux en même temps). Curiosité à propos de l'IA : avoir déjà utilisé l'IA dans un contexte Réseaux, comme Claude Agentic, ou LLM et MCP. Parler bien Anglais (niveau C1/C2). Personnalité curieuse sur les nouvelles technos et avoir l'esprit d'équipe. Outils & Environnement Wifi/Naq : Cisco et ISE (Identity Services Engine de Cisco). Adressage IP (IPv4 et IPv6) et sous-réseaux. Masques, VLAN et routage de base. Configuration pour assurer la connectivité réseau. Firewall. Curiosité à propose de l'IA dans un contexte réseau
Mission freelance
Architecte Base de données (F/H)
CELAD
Publiée le
1 an
500-600 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Télétravail flexible - Clermont-Ferrand - Expérience de 10 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Architecte Base de données pour intervenir chez un de nos clients. Vous aimez concevoir des architectures data robustes et faire le lien entre technique et produit ? Cette mission devrait vous parler. Voici un aperçu détaillé de vos missions : Au quotidien, vous intervenez sur la définition et l’évolution de solutions autour des bases de données : - Concevoir les architectures (HLD/LLD) et contribuer aux choix techniques - Définir et améliorer les procédures d’exploitation - Collaborer avec les équipes produit sur des solutions applicatives complexes - Sélectionner et qualifier les environnements d’exécution (on-premise, cloud, appliances) - Assurer une veille active pour anticiper les évolutions technologiques
Mission freelance
Ingénieurs Système Devops SSO H/F
TIBCO
Publiée le
Ansible
Gitlab
Jenkins
6 mois
Paris, France
Mission : Contexte et environnement de travail: Le bureau des services transverses (BST) construit et déploie des Services Transverses, au profit d’agents du MI et d’autres applications. La mission consiste à intégrer les services du BST, en particulier IGC-SERVICES, en collaboration avec d'autres équipes. IGC-SERVICES est un nouveau SI de délivrance des certificats qualifiés et non qualifiés. Cette mission inclut la maintenance et l'évolution d'un socle commun DevOps. Un socle commun DevOps est mis en place pour l’ensemble des services du BST et une des activités sera de le maintenir et de le faire évoluer avec les autres intégrateurs présents. Ces travaux d’intégration requièrent des compétences de type administrateur système, DevOps, ou ingénieur de production et un bon relationnel. Les activités, sans être exhaustives, sont constituées de : * La sollicitation des autres équipes pour la mise à disposition des infrastructures nécessaires (système, stockage, réseau, …) * L’installation et le paramétrage des systèmes (OS, appliances) * L’installation et le paramétrage des applicatifs spécifiques * La rédaction des différentes documentations associées permettant aux autres intervenants au BST d’être autonomes sur l’exploitation * Les formations éventuelles en complément * L’implémentation de la supervision * L’implémentation de la sauvegarde * La rédaction des fiches réflexes pour les niveaux de support HNO et intermédiaires * L’automatisation et l’optimisation des tâches précédentes permettant de réduire la charge d’exploitation * Le déploiement des mises à jour sur l’ensemble des composants * Participer à des ateliers techniques * Analyser des logs * Créer / Traiter des tickets (changements, incidents, demandes), * Le Maintien en Condition Opérationnel au global * Le Maintien en Condition de Sécurité\- Evolution des outils internes (Perl) Les Services opérés par le BST, et qui nécessitent les activités d’intégration, sont : \- L’authentification SSO (Passage2) \- La gestion des habilitations (GDI) \- La PKI (IGC) \- Le référentiel des identités \- Les solutions de signature et d’horodatage \- Les annuaires Les technologies qui sont mises en jeu : \- Linux (Debian et CentOS) \- Docker \- OpenStack et Kubernetes - Gitlab et ses pipelines- Ansible / Puppet \- SGBDR postgres, mysql- Scripts Shell \- Perl- Python \- HTML/CSS \- LemonLDAP::NG et les protocoles SAML et OIDC \- Openldap \- Gitlab et CI \- PERL \- Script shell \- Graylog \- Syslog \- Rclone \- Helm \- Apache \- Mellon \- Nginx
Mission freelance
DATA Analyst SAP BO
ARGANA CONSULTING CORP LLP
Publiée le
Business Object
IDT
Microsoft Power BI
12 mois
400-450 €
Île-de-France, France
Mission Le consultant BO interviendra sur : La modélisation et le développement d’univers SAP BO. La création et la maintenance de rapports Web Intelligence 4.3. La génération de rapports complexes multi-sources et multi-pages. Le support aux utilisateurs et aux métiers pour la formation et la montée en compétence sur BO. Livrables principaux : Univers BO Rapports BO Tableaux de bord et Data visualisations métiers Présentations d’indicateurs de performance Durée de mise en opération rapide : Capable d’être opérationnel sous 2 semaines. Compétences techniques requises SAP Business Objects 4.3 (Designer, IDT/UDT) – Confirmé – Impératif Modélisation d’univers – Confirmé – Impératif SQL – Confirmé – Souhaitable Web Intelligence 4.3 – Confirmé Connaissance CMC et Power BI – Plus Profil recherché Formation : Bac +5 Expérience : Minimum 5 ans sur SAP BO et modélisation d’univers Soft skills : Capacité à s’intégrer rapidement à une équipe BI et à devenir opérationnel rapidement. Positionnement : Auprès des Métiers, de la DSI ou dans un pôle Data transverse. Responsabilités : Identifier les données pertinentes à partir des exigences métiers Définir la logique de génération d’indicateurs Concevoir les tableaux de bord nécessaires à la restitution Assurer la production d’indicateurs et supports de décision
Offre d'emploi
Architecte Data Mesh
KLETA
Publiée le
Architecture
Data governance
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Mesh pour définir et piloter la mise en place d’une architecture data fédérée orientée domaines. Vous analyserez les organisations, les flux de données et les architectures existantes afin de proposer une trajectoire cible alignée avec les principes du Data Mesh (responsabilité par domaine, produits data, self-service, gouvernance fédérée). Vous guiderez la conception des plateformes de données par domaine en définissant des standards communs (contrats de données, qualité, observabilité, versioning, discoverabilité) et en structurant les mécanismes de partage et d’interopérabilité entre équipes. Vous serez responsable des choix structurants en matière de gouvernance, de sécurité, de catalogage et de propriété des données, tout en veillant à la scalabilité et à l’exploitabilité du modèle. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud, DevOps et métiers pour accompagner le changement organisationnel et technique. Vous aurez également un rôle clé dans l’animation d’ateliers, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des pratiques Data Mesh et de la culture produit autour de la donnée.
Offre d'emploi
BUSINESS ANALYST TECHNIQUE - RAG/ IA GENERATIVE
SMILE
Publiée le
Data science
IA Générative
RAG
6 mois
Paris, France
Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'Assets IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6569 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois