L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 351 résultats.
Offre d'emploi
Business Analyste Data
Publiée le
Méthode Agile
40k-56k €
Bordeaux, Nouvelle-Aquitaine
Le Business Analyst Data intervient au sein d’une squad Agile, assurant le suivi quotidien du run et la résolution des incidents. Il accompagne les utilisateurs, analyse leurs besoins et anime des workshops pour définir et clarifier les exigences métier. En collaboration avec les équipes techniques, il coordonne les actions connexes (ouvertures de flux, scheduling…), participe à la conception et à la spécification fonctionnelle des solutions data, ainsi qu’au paramétrage de la plateforme. Il contribue au packaging et à la livraison des évolutions, réalise les tests unitaires et d’intégration, et assure le support lors des mises en production ainsi que durant la période de garantie.
Mission freelance
Marketing consultant (H/F) - 75
Publiée le
Automatisation
CRM
IA
6 mois
75017, Paris, Île-de-France
Télétravail partiel
Un de nos clients dans le cloud recherche un Consultant Marketing en freelance : Poste basé à Paris – Votre mission : En tant que relais des équipes Sales & Marketing (globales et locales), vous serez chargé d’évaluer, déployer et favoriser l’adoption des technologies marketing, des processus et des workflows qui soutiennent la stratégie go-to-market en pleine évolution. Votre objectif : Maximiser l’impact business grâce à : une organisation plus performante, des processus et workflows de lancement produit renforcés, une expérience digitale client optimisée. Nos indicateurs clés : génération de leads, efficacité des équipes, optimisation du stack technologique & des workflows, et développement de solutions internes innovantes. Votre équipe : Vous rejoignez l’équipe Global Marketing Operations, rattachée au département du Chief Revenue Officer. Un poste transversal au croisement du marketing, des ventes, de l’IT et des équipes techniques.
Mission freelance
Senior Azure Data Engineer
Publiée le
Automatisation
Azure
Data Lake
6 mois
400-550 €
Paris, France
Télétravail partiel
Concevoir, construire et maintenir des pipelines d'ingestion de données à l'aide d'Azure et d'outils ETL (Talend, Informatica). Intégrer diverses sources de données dans les environnements Azure Data Lake et Databricks. Garantir l'évolutivité, la performance et la sécurité des solutions de données. Optimiser les flux de travail et automatiser les processus afin de réduire les interventions manuelles. Collaborer étroitement avec les analystes métier pour traduire les besoins en solutions techniques. Gérer plusieurs projets simultanément, en assurant le respect des délais et des bonnes pratiques. Mettre en œuvre des contrôles de qualité des données et des normes de documentation. Contribuer aux initiatives d'amélioration continue au sein de l'équipe DataOps.
Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Mission freelance
Architecte Data – Expert Azure
Publiée le
Azure
Big Data
3 ans
650-700 €
Paris, France
Télétravail partiel
Architecte Data – Expert Azure L’Architecte Data interviendra en tant que référent transverse sur les études, les cadrages et la conception d’architectures data bâties autour de l’écosystème Azure (Azure Data Lake, ADF, Databricks, Synapse/Fabric, Purview…). Au-delà de l’expertise Azure, il jouera un rôle de conseil , capable de vulgariser les enjeux data et de présenter des solutions claires et impactantes auprès des directions métier et exécutives, dans une posture “cabinet de conseil”. Responsabilités principales : Réaliser des études d’architecture et de chiffrage (DAT, estimations, roadmaps) avec un focus fort sur Azure Data . Concevoir des architectures data modernes sur Azure : ingestion, stockage, modélisation, gouvernance, analytics/AI. Traduire les besoins métier en solutions Azure pragmatiques, sécurisées et alignées sur les standards de l’entreprise. Produire des livrables premium : présentations PowerPoint, supports de cadrage, pitchs d’arbitrage, dossiers de décision. Vulgariser les sujets Azure auprès d’interlocuteurs non techniques (métiers, directions). Conseiller, challenger et proposer des trajectoires data orientées Azure, en réalisant benchmarks et recommandations. Travailler en proximité avec les équipes Data Engineering, BI, IA, Cloud et les autres architectes. Profil recherché : Bac+5 (ingénieur ou équivalent). 5 à 10 ans d’expérience minimum en architecture data , avec une expertise Azure confirmée . Maîtrise des principaux services Azure Data : Data Lake, ADF, Databricks/Fabric, Synapse, Purview, ETL/ELT, sécurité, gouvernance. Excellent relationnel, capacité à adapter son discours selon les interlocuteurs (métiers, DSI, direction). Solide maîtrise de la structuration et mise en scène de l’information (slides, storytelling, cadrage). Expérience en conseil / ESN appréciée (présentation, posture, relation client). Équilibre stratégie / technique : parler d’architecture sans rentrer dans le code. Soft skills clés : Pédagogue, excellent vulgarisateur. Curieux, structuré, orienté impact. Parfaitement à l’aise dans les présentations. Posture de consultant : écoute, influence, crédibilité.
Mission freelance
Lead Data Engineer Azure Databricks
Publiée le
Apache NiFi
Databricks
PySpark
3 ans
600 €
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un(e) Lead Data Engineer Azure Databricks avec une forte posture de transmission, coaching et mise en place des standards, pour accompagner une équipe en montée de maturité sur Databricks. 📅 Démarrage ASAP 📍 Île-de-France 🎯 Missions clés : ✅ Optimisation & fiabilisation des jobs Databricks (PySpark / Spark) ✅ Mise en place des standards & bonnes pratiques Data Engineering ✅ Coaching, mentoring, animation de la communauté Tech Lead ✅ Contribution aux migrations & à la modernisation du DataLake ✅ Travail sur l’industrialisation (CI/CD – Azure DevOps)
Mission freelance
data analyst GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 mois
100-400 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) DATA ANALYST GCP . Skills : GCP - BigQuery - anglais Mission : -collecter, nettoyer, structurer et analyser des données provenant de différentes sources GCP -construire des jeux de données fiables et documentés dans BigQuery -concevoir et maintenir des tableaux de bord -optimisation BigQuery -participer à la mise en place de bonnes pratiques de gouvernance de la donnée -contribuer au contrôle qualité N'hésitez pas à revenir vers moi pour des informations complémentaires.
Mission freelance
Data Analyst & Enabler / SQL /Python / Outils de BI / Tableau Software (H/F)
Publiée le
Data analysis
ETL (Extract-transform-load)
Python
6 mois
460-520 €
Villeurbanne, Auvergne-Rhône-Alpes
Télétravail partiel
Nous sommes à la recherche d'un Consultant Data Analyst & Enabler pour rejoindre l’équipe agile Data Platform de notre client grand compte dans le domaine de l'Energie. Vous aurez pour mission principale : d'être en appui sur la construction de produits data (développements BI, requêtage SQL, scripts Python), d'animer la communauté des utilisateurs BI/Self-service, de piloter des projets data spécifiques pour garantir leur livraison et leur adoption. Vous jouerez un rôle clé pour fluidifier l'usage de la donnée par les métiers, garantir la qualité des livrables techniques et accélérer l'autonomie des analystes via le Self-Service. Missions : Construction de Produits Data (Build) : Conception & Développement : Prendre en charge la réalisation de produits data concrets : création de tableaux de bord complexes (BI), écriture et optimisation de requêtes SQL pour l'analyse, et développement de scripts Python pour des traitements de données spécifiques. Qualité & Recette : Assurer les tests et la validation technique des produits développés avant leur mise à disposition aux métiers. Maintenance : Assurer le maintien en condition opérationnelle des rapports et scripts déployés. Animation de Communauté & SelfService Support & Formation : Animer la communauté des utilisateurs selfservice de la plateforme (en self-BI via l’outil Tableau, en SQL etc.). Accompagner les analystes métier dans leur montée en compétence. Communication : Être le point de contact privilégié pour les questions d'usage et les bonnes pratiques de la plateforme. Adoption : Promouvoir les nouveaux outils et datasets auprès des utilisateurs finaux. S’assurer qu’ils appliquent les bonnes pratiques d’optimisation des requêtes Pilotage de projets : Gestion de Projet : Piloter des projets data de bout en bout (cadrage, suivi, livraison) en respectant les contraintes de coûts et délais. Backlog & Spécifications : Collaborer étroitement avec le product owner et l’équipe data platform performance énergétique pour mettre en place les fonctionnalités et produits nécessaires à la communauté
Mission freelance
Expert DATA Gouvernance
Publiée le
Data governance
Gouvernance
6 mois
550-620 €
Île-de-France, France
Télétravail partiel
TEKsystems accompagne son client dans la recherche d'un(e) Expert(e) Gouvernance DATA : Dans le cadre d’un programme de transformation Data , nous lançons un chantier stratégique de gouvernance des données . L’objectif est de définir un cadre de modernisation de la gouvernance Data , en lien avec les enjeux de valorisation des données, de structuration des rôles et responsabilités, et de mise en place de processus robustes. L’expert sera intégré à une équipe projet pilotée par notre direction , en étroite collaboration avec les parties prenantes métiers et IT.
Offre d'emploi
Data Engineer Senior
Publiée le
Python
SQL
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Au sein de la Direction Data (Direction du Numérique), intégration à l'équipe Bronze (PO, data steward, 2 data engineers) au cœur de la plateforme Data. Stack principale : Python, Spark, SQL (traitements), Airflow (orchestration), Cloud Storage & Delta Lake (stockage), services cloud (BigQuery, Dataproc, Pub/Sub, Cloud Storage), Terraform/Terragrunt (infra). Activités attendues Concevoir et maintenir des pipelines data robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables ; assurer sécurité et stabilité des environnements. Construire et maintenir les workflows CI/CD ; accompagner l'équipe sur l'exploitation et requêtage. Gouvernance et conformité (qualité, sécurité, conformité), documentation, veille et participation aux instances Data Ingénieurs.
Mission freelance
DATA ARCHITECTE GCP
Publiée le
Google Cloud Platform (GCP)
3 mois
400-650 €
Paris, France
· Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation
Offre d'emploi
Consultant FinOps Data & Monitoring – Cloud Azure (H/F)
Publiée le
Azure
Snowflake
6 mois
Paris, France
Télétravail partiel
Contexte Dans le cadre d’un programme de transformation Cloud, nous recherchons un(e) Consultant FinOps orienté Data & Analyse pour exploiter les données de consommation Cloud et mettre en place des mécanismes de pilotage financier, forecast, supervision et alerting . Le poste est centré sur l’ analyse des données Azure , la réalisation de POC analytiques , et la construction d’indicateurs FinOps permettant d’anticiper les dérives budgétaires. Missions Exploitation et analyse de la donnée Cloud Collecter et analyser les données de consommation Azure et d’outils Cloud/SaaS. Réaliser des analyses exploratoires et POC , notamment via le requêtage KQL , pour comprendre les usages, coûts et dérives potentielles. Structurer et exploiter les données dans Snowflake afin de produire des analyses FinOps exploitables. Pilotage FinOps & forecast Construire des indicateurs FinOps : suivi des coûts, tendances, dérives. Mettre en place des prévisions budgétaires (forecast) basées sur les données de consommation. Contribuer au showback et à l’aide à la décision pour les équipes projets et FinOps. Supervision, monitoring et alerting Définir et implémenter des règles de monitoring et d’alerting sur les dérives financières. Mettre en place une surveillance liée à la juste consommation des ressources Cloud. Alimenter les outils de reporting et de visualisation (dashboards). Contribution aux activités FinOps Participer au suivi des coûts et au support des équipes projets. Identifier des opportunités d’optimisation et contribuer aux plans de remédiation. Maintenir et faire évoluer les reportings FinOps existants.
Mission freelance
LEAD DATA SCIENTIST GCP (550 MAX)
Publiée le
Google Cloud Platform (GCP)
1 an
400-550 €
Île-de-France, France
Télétravail partiel
Pilotage Technique & Architecture : Concevoir l'architecture des briques algorithmiques (Clustering, Prévision de ventes, Optimisation sous contraintes) sur GCP. ● Développement algorithmique (Hands-on) : Coder les modèles complexes, notamment l'algorithme d'optimisation (Recherche Opérationnelle) pour respecter les contraintes magasins (linéaire, supply, mix marge/CA). ● Coaching & Code Quality : En support éventuel de notre Lead Data Scientist interne, encadrer les Data Scientists séniors, garantir les bonnes pratiques (CI/CD, DVC, Tests) et l'industrialisation via Airflow/Composer. ● Mesure de la performance : Mettre en place des méthodologies robustes (ex: Causal Impact) pour mesurer les gains business (CA/Marge) post-déploiement. ● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery et une bonne connaissance des bases de données SQL/NoSQL (PostgreSQL, MongoDB, DBL…). ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Connaissance des architectures data modernes (Data Lake, Data Warehouse) et des environnements Cloud (GCP, AWS, Azure). ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Compréhension des principes DevOps, avec une vision orientée fiabilité et amélioration continue. ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
Publiée le
Azure
BI
DevOps
24 mois
300-600 €
Nanterre, Île-de-France
Télétravail partiel
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
Consultant Master Data SAP (Migration ECC → S/4HANA) (H/F)
Publiée le
SAP ECC6
6 mois
400-550 €
Bourges, Centre-Val de Loire
Télétravail partiel
Nationalité : Française obligatoire Mobilité : 2×3 jours/mois à Bourges , Le reste en IDF / Le Plessis-Robinson Langues : Anglais professionnel TJM max : 550€ Démarrage : ASAP DESCRIPTIF DE LA MISSION – Consultant Master Data SAP (Migration ECC → S/4HANA) 🎯 Informations générales Localisation : 2×3 jours par mois sur site à Bourges , le reste en Île-de-France (Le Plessis-Robinson / IDF). Démarrage : ASAP Nationalité : Française obligatoire Durée : 6 mois (renouvelables) Rythme : 3 jours sur site / 2 jours télétravail TJM max : 550 € Langue : Anglais professionnel 🧭 Contexte de la mission Dans le cadre du projet de migration du système d'information SAP , le client recherche un Consultant Master Data SAP pour accompagner la transition complète des données ECC → S/4HANA . La mission inclut toutes les activités de préparation, nettoyage, transformation et migration des données , avec un focus particulier sur : les Master Data Manufacturing (articles, BOM, gammes, objets techniques), les Business Partners , les données qualité et traçabilité , ainsi que l’utilisation intensive des outils LSMW , Mass Update et outils de Data Cleansing . Le consultant travaillera au quotidien avec les SMEs (experts métier), les équipes IT et les coordinateurs SAP pour garantir la fiabilité , la qualité et la complétude des données migrées. 🛠️ Rôle & Responsabilités 🔹 Migration ECC → S/4 Préparer, transformer et charger les données dans le cadre de la migration. Utiliser les outils de migration : LSMW , Mass Update , scripts, templates. Exécuter des reprises de données complexes. 🔹 Data Cleansing / Data Quality Utiliser CleanScene / CleanseIT pour le nettoyage des données. Identifier les incohérences, doublons, champs manquants, formats non conformes. Suivre la résolution des anomalies avec les métiers. 🔹 Gestion des Master Data Manufacturing Le consultant interviendra sur l’ensemble des objets MDM industriels, notamment : Articles / Matériaux Objets techniques Gammes Nomenclatures (BOM) Données PP / PPDS / Ordres de production Besoin indépendants Business Partners, clients, fournisseurs Données Qualité & Traçabilité 🔹 Coordination & documentation Participer à la rédaction et l’ajustement des FSD (sans en assurer la validation). Solliciter les métiers (SME) pour la validation des règles fonctionnelles. Contribuer à la préparation des phases de test (UAT) et de bascule finale . 🔹 Production de reporting technique Le consultant devra produire du reporting opérationnel pour les métiers : Power BI SQ01 / SQ02 (reports SAP) CDS Views exploitées sous Fiori SAP Analysis for Office (AFO / DAEM) 🧩 Profil recherché 🎓 Compétences indispensables Expérience concrète sur projets SAP ECC / S/4HANA . Très bonne maîtrise des outils de migration : LSMW , Mass Update , Data Cleansing (CleanScene / CleanseIT). Connaissance approfondie des Master Data Manufacturing. Aisance confirmée sur les objets PP / PPDS / PO. Expérience en création de reporting SAP (Power BI, SQ01/02, CDS Views, AFO). Habitude de travailler avec SMEs, IT, intégrateur SAP. Anglais professionnel. 🌟 Soft Skills Rigueur & précision Forte capacité d’analyse Communication transverse Capacité à challenger les règles métier Autonomie et proactivité ⭐ Compétences clés Master Data ECC / S4 – Manufacturing & Quality LSMW / Mass Update / Migration Cockpit CleanScene / CleanseIT Gammes, BOM, objets techniques PP / PPDS / PO Power BI, SQ01/SQ02, CDS Views, AFO Interaction métier / coordination SME / IT
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Utiliser Qonto pour créer la microentreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
1351 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois