L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 284 résultats.
Mission freelance
Développeur Python Senior
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
Hauts-de-Seine, France
Télétravail partiel
Secteur d'intervention : Assurance Type de prestation : Assistance Technique avec facturation journalière Métiers et fonctions impliqués : Études & Développement, Développeur Compétences techniques requises : Technologies et outils : Python, React (React JS) Méthodes / Normes : IFRS17; Adapter Soft skills : Rigueur Description de la mission : Le projet concerne un client dans le secteur de l'assurance, pour lequel le développeur sera intégré à une équipe Data à mi-temps (2/3 jours par semaine). La mission principale est le développement d'outils pour soutenir les activités métiers telles que la modélisation, projection actuarielle et études statistiques, notamment pour répondre à la norme IFRS17. Les responsabilités incluent : Développement en Python des études actuarielle sur le produit Maintenance du front de l'application (React) – connaissances en React appréciées Recueil, analyse et formalisation des besoins utilisateurs Coordination avec les Engineering Managers pour assurer le delivery (développement, tests, opérations) en respectant les exigences de sécurité du client Communication et application des standards et bonnes pratiques au sein de la tribu et des équipes métier
Offre d'emploi
Data analyste
Publiée le
JIRA
Microsoft Excel
1 an
40k-45k €
400-570 €
Paris, France
Télétravail partiel
Prestation de Data AnalyseDéfinition du besoin La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'un groupe audiovisuel majeur. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. La Direction Data recherche une prestation en Data Analyse pour accompagner les équipes produits et éditoriales dans l'analyse de la performance des contenus jeunesses. Prestations attendues La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes interne, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet) Le maintien du bon fonctionnement des dashboards existant sur Power BI L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne) La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul Le partage de son expertise afin de déployer le marqueur interne sur d'autres produits L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes
Offre d'emploi
Tech Lead Data
Publiée le
Méthode Agile
1 an
40k-56k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un expert Data IT pour accompagner la migration des projets vers le Cloud interne et soutenir les équipes de développement dans l’adoption des bonnes pratiques de développement , en intégrant les enjeux de sécurité et de gouvernance des données . Il contribuera à la mise en place d’automatisation et d’industrialisation selon les principes DevSecOps , participera aux chantiers d’amélioration continue et au monitoring transverse, tout en intervenant dans les premières implémentations de solutions Gen AI appliquées à la donnée . Acteur clé de la stratégie Data France , il apportera conseil et expertise auprès des squads, animera des sessions de formation et mènera des études d’optimisation des services de l'équipe Data . Une veille technologique active et la maîtrise de l’environnement Big Data Hadoop ainsi que du développement SPARK SCALA sont indispensables pour ce poste.
Offre d'emploi
2 DATA ANALYST POWER BI
Publiée le
Microsoft Power BI
SQL
3 ans
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour ☺️, Pour le compte de notre client, nous recherchons plusieurs data analyst Power BI. Objectif du rôle : Produire des analyses data stratégiques pour améliorer la satisfaction client, la performance des axes et accompagner les équipes marketing dans la prise de décision. Fiche de Poste – Data Analyst Objectif du rôle : Produire des analyses data stratégiques pour améliorer la satisfaction client, la performance des axes entreprises et accompagner les équipes marketing dans la prise de décision. 🎯 Missions principales 1. Analyse de la satisfaction client (« qualité perçue ») Analyser les indicateurs de satisfaction sur plusieurs périmètres stratégiques. Mesurer l’évolution de la qualité perçue, notamment dans le contexte d’ouverture à la concurrence. Travailler en lien étroit avec les data analystes, chargés d’étude et référents satisfaction. Identifier les irritants majeurs et proposer des axes d’amélioration actionnables. 2. Analyse de la performance des axes Analyser la performance réelle et perçue des différents axes. Produire des analyses permettant d’identifier les dégradations de qualité et leurs causes. Fournir aux équipes opérationnelles des insights clés pour orienter les plans d’action. Construire des tableaux de bord permettant le suivi dans le temps. 3. Appui BI & Développement de Data Visualisations Concevoir, développer et maintenir des dashboards Power BI (ou équivalents : Tableau, Qlik). Accompagner les équipes métier dans l’analyse des données issues des enquêtes et mesures de satisfaction. Apporter un conseil BI : choix des KPIs, structuration des dashboards, optimisation des visualisations. Participer aux projets ad hoc d’analyse data et de support aux équipes études / marketing. 4. Conduite d’études marketing (pour un des deux analystes) Lancer, piloter et analyser des études marketing orientées satisfaction client. Définir les protocoles d’études et les questionnaires. Croiser données d’enquêtes, données opérationnelles et verbatims. Produire des synthèses claires et opérationnelles pour les directions marketing. Restituer les conclusions à l’oral et à l’écrit auprès de différentes parties prenantes. 5. Collaboration et périmètre évolutif Collaborer avec les équipes internes : marketing, axes, data analystes, chargés d’étude. Participer aux échanges autour des méthodologies, KPIs et axes d’amélioration. Être force de proposition sur les analyses complémentaires à mener. Possibilité d’extension de périmètre au-delà d’INOUI selon les besoins du groupe.
Mission freelance
Développeur Oracle Data Integrator (ODI)
Publiée le
ODI Oracle Data Integrator
24 mois
300-430 €
Brest, Bretagne
Télétravail partiel
Au sein d’une équipe couvrant tous les métiers de notre client (commerce, gestion, marketing, finance, risque, etc. ), nous recherchons à renforcer notre équipe par l’intégration d’un nouveau Consultant ODI. En tant que consultant maitrisant parfaitement Oracle Data Integrator, vos tâches consistent à : - Analyse des besoins fonctionnels, cadrage technique, études - Préparation les plans d’actions techniques : architecture, documentation, charge, dépendances, délais, bonnes pratiques... - Accompagner les développeurs BI dans la réalisation de leur projet - Revue des solutions techniques - Apporter votre expertise technique lors des phases de préparation, de conception et de priorisation - Participation à tous les rituels agile de votre Feature Team - Réalisation des développements ETL sous Oracle Data Integrator - Suivi et la sécurisation des traitements de production - Amélioration de l’existant, gestion des tickets
Offre d'emploi
🎯 Product Owner Data expérimenté – Secteur Assurance & Finance – Niort (présentiel 3j/semaine)
Publiée le
Cloud
Data science
Dataiku
1 an
Niort, Nouvelle-Aquitaine
Dans le cadre d’une stratégie ambitieuse de transformation axée sur la valorisation de la donnée à horizon 2025-2026, une équipe DATA nouvellement constituée recherche un second Product Owner pour renforcer ses capacités de pilotage et de livraison. 🔍 Vos missions clés : Être le lien stratégique entre les métiers (actuaires, gestionnaires, commerciaux…) et les équipes techniques Définir, prioriser et piloter un portefeuille de produits data à forte valeur ajoutée Contribuer à la mise en place du modèle opérationnel et au déploiement des offres de services Garantir la valeur métier des solutions développées 📌 Objectifs & livrables : Animation de comités et challenge des directions métiers Identification et portage de cas d’usage innovants : RPA, IA, DataScience, MlOps Détermination des éléments de valeur : quantitatif, qualitatif, expérience collaborateur Rédaction d’études de solutions et modélisation opérationnelle
Offre d'emploi
Ingénieur études électroniques - Energie H/F
Publiée le
40k-55k €
Saint-Égrève, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte de la mission : Dans un contexte de croissance, nous renforçons notre équipe en intégrant un ingénieur en études électroniques. Basé à Grenoble, vous rejoindrez notre centre de développement électronique multisites. Sous la responsabilité de notre direction technique, vous contribuez à des projets variés pour nos clients locaux et nationaux, notamment dans les secteurs exigeants comme ceux de l'énergie, du transport et de la sécurité. Responsabilités : Vous serez à amener à réaliser des études techniques pour l'adaptation de produits intégrant des systèmes de contrôle commande nucléaire : Définir et chiffrer les solutions QCD dans le domaine électronique Réaliser les solutions identifiées selon les processus pertinents en maîtrisant le QCD Vérifier le traitement des non conformités des sous-ensembles Assurer une activité de vérification des études réalisées par ses pairs métiers Intervenir en qualité de responsable métier dans le cadre du process de gestion des évolutions
Mission freelance
Ingénieur étude décisionnel Datastage / Power BI
Publiée le
Advanced Design System (ADS)
IBM DataStage
Scrum
18 mois
100-400 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte du besoin le client dans le cadre de son activité Décisionnel, recherche un profil en développement Datastage / Power BI afin d'intégrer l'équipe développement Expérimenté (profil ayant une expérience de 3 à 7 ans dans la même famille de prestations, sur justification des références clients) renforcement de l'équipe de développement avec l'intégration d'une resource maitisant la partie alimentation (ods, dwh, datamart) et la partie restitution avec l'outil Power BI, . Fort de ses expériences techniques sur cette technologie, le prestataire devra également montrer ses connaissance des méthodes Agiles (plus particulierent SCRUM ) MISSIONS Rattaché au responsable développement du SI Décisionnel, l'intervenant aura pour principales missions : - Développement de programme dataware, datamart (Datastage et SQL) - Développement de dataset, dataflow et rapports sous l' outil Power BI - Test unitaire et livraison - Respect des normes et bonnes pratiques au sein du SID - Prise en compte d'anomalie, d'évolution en lien avec le BE et la qualification - Optimisation de requêtes SQL Technologie ou les certifications attendues : POWER BI dans un environnement Datastage Teradata, et PostgreSQL Définition des prestations attendues : Prestation de développement en coordination avec équipe BE , qualification et scrum master Environnement technique - technologique "ETL/ELT/Traitement : Datastage/SQL Restitution : PowerBI (dataset, dataflow, rapports) Stockage : Teradata, PostgreSQL" Compétences techniques Connaissance d'ETL/ELT décisionnel : DATASTAGE plus particulièrement Requêtage SQL Développement de restitution Décisionnel POWER BI (Dataset, dataflow, rapports) Méthode SCRUM & Manipulation d’un gestionnaire de ticketing (type JIRA) Compétence métiers Expérience dans l'écosystème de la protection sociale Retraite Complémentaire des salariés du privé idéalement
Mission freelance
Ingénieur étude décisionnel Datastage / Power BI
Publiée le
Teradata
Test unitaire
Ticketing
18 mois
150-400 €
Paris, France
Contexte du besoin le client dans le cadre de son activité Décisionnel, recherche un profil en développement Datastage / Power BI afin d'intégrer l'équipe développement Expérimenté (profil ayant une expérience de 3 à 7 ans dans la même famille de prestations, sur justification des références clients) renforcement de l'équipe de développement avec l'intégration d'une resource maitisant la partie alimentation (ods, dwh, datamart) et la partie restitution avec l'outil Power BI, . Fort de ses expériences techniques sur cette technologie, le prestataire devra également montrer ses connaissance des méthodes Agiles (plus particulierent SCRUM ) MISSIONS Rattaché au responsable développement du SI Décisionnel, l'intervenant aura pour principales missions : - Développement de programme dataware, datamart (Datastage et SQL) - Développement de dataset, dataflow et rapports sous l' outil Power BI - Test unitaire et livraison - Respect des normes et bonnes pratiques au sein du SID - Prise en compte d'anomalie, d'évolution en lien avec le BE et la qualification - Optimisation de requêtes SQL Technologie ou les certifications attendues : POWER BI dans un environnement Datastage Teradata, et PostgreSQL Définition des prestations attendues : Prestation de développement en coordination avec équipe BE , qualification et scrum master Environnement technique - technologique "ETL/ELT/Traitement : Datastage/SQL Restitution : PowerBI (dataset, dataflow, rapports) Stockage : Teradata, PostgreSQL" Compétences techniques Connaissance d'ETL/ELT décisionnel : DATASTAGE plus particulièrement Requêtage SQL Développement de restitution Décisionnel POWER BI (Dataset, dataflow, rapports) Méthode SCRUM & Manipulation d’un gestionnaire de ticketing (type JIRA) Compétence métiers Expérience dans l'écosystème de la protection sociale Retraite Complémentaire des salariés du privé idéalement
Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)
Publiée le
MySQL
18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
Mission freelance
Data Analyst RH
Publiée le
ADP
Microsoft Excel
Microsoft Power BI
1 an
300-350 €
Île-de-France, France
Nous recherchons pour l'un de nos clients, un(e) Data Analyst RH afin de valoriser les données une fois étudiées et de les structurer pour aider la DRH à développer des stratégies pertinentes dans l'ensemble des domaines RH et Finance (masse salariale, effectifs prévisionnels, ETP, KPI RH, mobilité, performance...) Vos principales missions seront les suivantes : - Extraire les données RH nécessaire à l'analyse, à l'aide des logiciels SIRH (RHPI, ADP, Workday, BOXI, etc.) - Définir les règles de gestion de nettoyage, de structuration des bases de données et rédiger les processus. - Veiller à l'exactitude des données RH, être garant et référent de ces données. - Veiller à ce que les données RH des collaborateurs soient protégées et utilisées en parfaite conformité avec les règlementations en vigueur. - Analyser les données afin d'en dégager des tendances, des axes d'amélioration. - Optimiser les process. - Réaliser des tableaux de bord à des fins de communication pour différents services ou niveaux de hiérarchies. - Réaliser des tableaux de bord permettant l'automatisation des rapports légaux (Bilan Social, Bilan Egalité F-H, Bilan Emploi CSE, etc.) - Contribuer aux chantiers Data en lien avec le Data Office (Gouvernance, fiabilité des données, ...) - Participer aux projets de digitalisation des outils RH.
Mission freelance
Ingénieur d'étude JAVA
Publiée le
Angular
Java
Vue.js
1 an
100-280 €
Paris, France
Nous souhaitons intégrer à une équipe deux profils techniques confirmés, justifiant d’au moins deux années d’expérience en développement d’applications web Java. Une maîtrise des technologies front modernes (telles qu’Angular ou Vue.js) ainsi qu’une bonne pratique des environnements back-end — notamment la conception d’API et l’utilisation de frameworks tels que Spring ou Spring Boot — serait particulièrement appréciée......... .... ..... ...... ...... ..... ...... ...... ....... ...... ..... ..... ...
Offre d'emploi
Développeur Big Data Scala / Java (Migration DataHub)
Publiée le
Apache Kafka
AWS Cloud
Big Data
12 mois
45k-56k €
500-530 €
Montreuil, Île-de-France
Télétravail partiel
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production. Missions principales : Étude et conception technique des batchs et pipelines data. Développement Spark/Scala pour traitements batch et streaming. Récupération, transformation, enrichissement et restitution des données (ETL/ELT). Création et publication de batchs Kafka (topics / événements). Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring. Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés. Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3). Stack technique (obligatoire / souhaité) : Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé). Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps. Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Offre d'emploi
Expert Etudes Salesforce 2
Publiée le
JIRA
18 mois
10k-60k €
150-600 €
Paris, France
Télétravail partiel
CONTEXTE Le programme ECLA porte l’enjeu stratégique de transformation de la relation client . Dans un environnement complexe, ce projet de mise en place du CRM SalesForce s’appuie sur les principes de l’agilité à l’échelle issus du Framework « SAFe ». Pour le Socle Client et Connaissance Client, il s’agit de construire et mettre à disposition des marques des fonctionnalités du CRM, qui s’appuie sur Salesforce. Les principaux enjeux 2026 de la Team Persée sont la sécurisation du déploiement , la MEV du réseau et la mise en oeuvre du projet Net Message . MISSIONS : Pour la team Client/Connaissance Client (Persée): Développeur Salesforce + 5 ans expérience Connaissances Techniques : Apex, SOQL, LWC, Python, Aura, Web Development, Flow, Visibilty Outils: Copado, GIT, JIRA Connaissances fonctionnelles: Sales Cloud, Service Cloud, Community Cloud, Data Model, Data Management, FSC, Global Admin, Sécurité (Visibilité, accès données), Templates
Mission freelance
DBA ETUDE POSTGRESQL MONGODB
Publiée le
Mongodb
PostgreSQL
2 ans
560-610 €
Île-de-France, France
Télétravail partiel
En tant que DBA d’étude, vous serez responsable de : Analyse & optimisation Étudier les performances applicatives et SQL, identifier les leviers d’amélioration. Participer à la modélisation et aux choix d’architecture BD. Réaliser du tuning (requêtes, indexation, configuration moteurs). Architecture & haute disponibilité Contribuer à la conception et l’évolution des infrastructures PostgreSQL. Travailler sur des architectures HA : Patroni , pgpool-II , réplication, bascule, load balancing. Garantir la robustesse et la résilience des clusters. Administration & support Encadrer les bonnes pratiques d’utilisation des bases (PostgreSQL, MongoDB, Oracle). Apporter du support aux équipes de développement. Participer à la migration, à l’intégration ou à la montée de version de nouveaux SGBD. Supervision & sécurité Assurer la surveillance, la disponibilité et les performances. Mettre en place des outils, dashboards et alertes. Contribuer aux politiques de sauvegarde et de sécurité. Compétences techniques recherchées Maîtrise requise PostgreSQL (administration avancée, performance, tuning). Patroni (HA PostgreSQL). Pgpool-II (load balancing, failover). MongoDB (administration et bonnes pratiques). Compétence appréciée Oracle (notions ou première expérience suffisante). Soft skills Capacité d’analyse et sens critique. Force de proposition et autonomie. Aisance à travailler avec les équipes dev et infra. Curiosité technologique et envie d'améliorer en continu les environnements. Profil recherché Expérience confirmée en tant que DBA d’étude , ou profil DBA / Data Engineer orienté conception et optimisation. Connaissance des environnements multi-SGBD. Souhait d’évoluer sur des sujets d’architecture, de performance et de haute disponibilité.
Mission freelance
Ingénieur d'Études Système & Supervision Industrielle - Panorama E2 & PC Vue
Publiée le
Architecture
Automatisation
Conception
6 mois
400-600 €
Rungis, Île-de-France
L'Ingénieur d'Études Système jouera un rôle central dans la conception et la mise en place de systèmes de supervision avancés - Panorama E2, PC Vue. Il sera donc en charge de : Concevoir et configurer des architectures de supervision adaptées en utilisant Panorama E2 et PC Vue. Développer des applications de supervision, en respectant les spécifications techniques et fonctionnelles. Assurer les tests et la mise en service des installations de supervision. Rédiger la documentation technique (CDC, rapports, manuels utilisateurs). Assurer le support technique et contribuer à la maintenance évolutive des systèmes. Collaborer avec les équipes projet pour garantir la livraison des solutions en respectant les délais et la qualité attendue.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
284 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois