L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 774 résultats.
Mission freelance
Architecte d'Entreprise
Publiée le
Cloud
SAP BW
TOGAF
12 mois
Hauts-de-Seine, France
Télétravail partiel
Métier et Fonction : Stratégie & transformation digitale, Architecte d'entreprise. Spécialités technologiques : TOGAF, Cloud. Type de service : Assistance Technique, facturation au taux journalier. Compétences : Technologies et Outils : AWS Langues : Anglais Secteurs d'activités : Banque, Finance, Assurance Description de la prestation : Pour un client dans le secteur des assurances, recherche de 2 architectes d'entreprise avec 3 à 5 ans d'expérience. Le département comporte 8 architects expérimentés et 3 architects transversaux. Les architectes d'entreprise sont responsables de la vision architecturale d'un sous-domaine, en collaboration avec l'équipe d'architecture, les équipes de livraison, la gouvernance, la sécurité, et les centres d'expertise. Leurs missions incluent : Affiner et maintenir la vision architecturale du sous-domaine attribué Réaliser des évaluations et études architecturales Diriger les sessions de conception et contribuer au comité d'architecture Mettre à jour le référentiel d'architecture d'entreprise Soutenir l'équipe de gouvernance dans ses activités
Mission freelance
Head of Data
Publiée le
Gouvernance
Management
Pilotage
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Un groupe du retail spécialisé dans la distribution omnicanale accélère sa transformation digitale. Dans un contexte de croissance et d’harmonisation des systèmes, le Data Office souhaite structurer sa gouvernance, renforcer la qualité des données et professionnaliser l’ensemble de la chaîne analytique. Dans ce cadre, le groupe recherche un Head of Data expérimenté pour accompagner la montée en maturité et piloter la stratégie data globale. Responsabilités principales • Élaborer et piloter la stratégie data à l’échelle du groupe. • Superviser les équipes Data Engineering, Data Analytics et Data Governance. • Définir la roadmap Data et arbitrer les priorités techniques et métier. • Encadrer la mise en place ou l’évolution de la plateforme data (cloud). • Structurer la gouvernance : qualité, catalogage, MDM, sécurité. • Acculturer les directions métier (Marketing, Supply, E-commerce, Finance) aux usages data et IA. • Piloter les budgets data, suivre les KPI de performance et garantir la cohérence des initiatives. • Interagir avec les comités de direction et assurer un reporting stratégique. Compétences et profil recherché • +10 ans d’expérience dans la data, dont plusieurs années en management d’équipes. • Expérience confirmée en environnements retail ou B2C à forte volumétrie. • Vision globale data : architecture, gouvernance, analytics, IA. • Maîtrise d’un environnement cloud moderne (Azure, AWS ou GCP). • Solides compétences en pilotage transverse, communication et conduite du changement. • Capacité à structurer un Data Office et à faire monter en maturité des équipes pluridisciplinaires. • Leadership, esprit analytique et forte orientation business. Environnement de travail • Groupe international du retail en pleine transformation digitale. • Collaboration directe avec la DSI, la direction e-commerce et les équipes omnicanales. • Contexte hybride : 2 à 3 jours sur site selon les phases du projet. • Mission longue (6 à 12 mois renouvelables).
Offre d'emploi
Software Architect Python- ile de France (H/F)
Publiée le
API
Django
Front-end
1 an
40k-45k €
400-500 €
Charenton-le-Pont, Île-de-France
techniquement une nouvelle squad dédiée à un projet stratégique d’automatisation. Le rôle consiste à encadrer des développeurs junior et confirmés (Paris) ainsi que des ingénieurs réseau, en collaboration avec une équipe déjà en place à Porto. L’objectif : structurer, professionnaliser et faire monter en maturité les pratiques de développement au sein de l’équipe. 🚀 Missions principales Définir des spécifications techniques précises et exploitables Établir des architectures logicielles standardisées Analyser l’existant et proposer des architectures modernes Mettre en place et diffuser de bonnes pratiques de développement Participer à la conception fonctionnelle et technique des besoins collectés auprès des équipes métier Documenter workflows, modèles de données et cahiers des charges Accompagner les analystes et garantir la cohérence globale du SI Contribuer à la réussite de projets de taille moyenne (200–300 j/h) 🧠 Compétences techniques requises (niveau expert) Python & écosystème : Django, FastAPI, Pydantic, SQLAlchemy, Starlette Architectures full stack (front + backend) REST API, GraphQL, OpenAPI Microservices dans Kubernetes Orchestrateurs Python (ex : Prefect) Git et bonnes pratiques d’ingénierie logicielle 🤝 Soft Skills Leadership technique et capacité à encadrer des profils junior/confirmés Forte orientation utilisateur et valeur produite Rigueur, pragmatisme, sens de l’organisation Excellente capacité d’analyse et de résolution de problèmes Anglais professionnel (B2 minimum)
Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Mission freelance
Tech Lead - Backend - E-Commerce - Salesforce B2C Commerce Cloud H/F
Publiée le
Salesforce Commerce Cloud
12 mois
500 €
La Défense, Île-de-France
Télétravail partiel
Notre client dans le secteur Retail recherche un/une Tech Lead - Backend - E-Commerce - Salesforce B2C Commerce CloudH/F Description de la mission: Rattaché(e) au Backend Engineering Manager, vous serez en charge des sites e-commerce Europe (actuellement sur la solution Salesforce B2C Commerce Cloud). Vos principales missions : Vous serez intégré(e) au sein d’une équipe de 10 personnes composée d’un Product Manager, d’un SA (System Architect), d’une Scrum Master, deux Tech Lead et cinq développeurs Être le référent technique des applications/sites e-commerce / backend, expert de leur fonctionnement et de leur intégration au sein de l’écosystème technique. Être responsable de concevoir, évaluer, chiffrer et valider des solutions technico-fonctionnelles répondant aux besoins émis par Les équipes Produit. Être responsable du design technique des applications/fonctionnalités développées (i.e. contrats d'interfaces), et de leur évolution au sein de l’écosystème digital. Être force de proposition pour innover et simplifier les architectures en place et alerter des risques et difficultés rencontrées sur la mise en place de nouvelles fonctionnalités. Responsable de la roadmap technique des applications de son périmètre : définir, valoriser, promouvoir les sujets techniques à prioriser dans les sprints pour supporter les enhancements fonctionnels Comprendre les besoins exprimés par les PO et le traduire en solution technique. Éclairer les PO sur les avantages et risques éventuels des solutions envisagées, leurs alternatives, et les implications en termes de coûts et de planning Faire le lien entre les différents partenaires techniques impliqués sur les projets (éditeur, intégrateur, équipes techniques internes qui gravitent autour des sites e-commerce) Accompagner les équipes de dev dans les phases d’estimations/chiffrages / cadrage technique Accompagner les équipes fonctionnelles tout au long de l'implémentation et assurer auprès d’eux un suivi sur leur mise en œuvre. Assurer une veille technologique sur son application et promouvoir des solutions innovantes. Être le relais auprès des équipes de développements des bonnes pratiques, et garant de l’application de la politique sécurité ainsi de la performance et l’exploitabilité de ses systèmes (ex : API) Réaliser ou s’assurer que la documentation technique nécessaire à priori et à posteriori de la réalisation soit réalisée et correctement archivée Être garant de l’automatisation des processus techniques et de l’outillage permettant le passage à l’échelle : release haute fréquence, tests de qualité de codes auto, TU auto … Expertises techniques / globales : Vous êtes passionné de développement et justifiez d’une expérience significative en développement e-commerce. Vous connaissez les technos JAVA, JS, XML, JSON, SOAP, Restfull, SQL, HTML/CSS, Bitbucket, Jenkins, Jira/Confluence… Vous avez déjà travaillé sur Sales Force Commerce Cloud (Sitegenesis ou SFRA), Hybris ou autre plateforme e-commerce… Vous avez une bonne connaissance des API de Salesforce B2C COmmerce (OCAPI/SCAPI) et du fonctionnement des Hooks Vous avez déjà travailler sur la mise en place de Fluent OMS dans B2C Salesforce CommerceCloud Vous avez déjà développé/mise en place plusieurs JOBs. Vous maitrisez l’ensemble des Features que propose le Business Manager aussi bien côté Merchant Tools qu’Organization. Vous êtes sensibilisé aux méthodologies Agiles (Scrum/Kanban/SAFE), à la culture DEVOPS. Vous êtes en perpétuelle veille technologique. Vous êtes doté d’un excellent sens analytique et de synthèse. Une connaissance des KPI Webperf et des leviers à actionner dans le code pour les faire progresser serait un très gros plus. Capacité à comprendre & appréhender les besoins fonctionnels Écouter et comprendre les enjeux technico-fonctionnels des projets Orienter et conseiller en tenant compte des contraintes projet, sécurité, design Comprendre les enjeux et priorités business Adopter une approche proactive, force de proposition et orientée solutions Anticiper et s’adapter selon les priorités Savoir-être : Voit les problèmes et les obstacles comme des challenges Sait proposer / prioriser et s’adapter en toutes circonstances Sait s’intégrer à une équipe, se faire apprécier pour ses qualités/compétence et adopter une attitude positive avec ses clients et ses collègues Forte culture e-commerce et en technologies digitales Rigueur au quotidien, les travaux sont reconnus pour leur qualité Sens de l’écoute, du dialogue et de la communication Pédagogie et capacité à vulgariser pour être une interface avec les interlocuteurs métiers Sait faire preuve de créativité, d’innovation autant que possible Autonome, sérieux, investi et garant de ses livrables. Regard critique Compétences / Qualités indispensables : SFCC, salesforce, anglais, xml, JAVA, Agile Compétences / Qualités qui seraient un + : Experience retail Informations concernant le télétravail : 2 jours
Offre d'emploi
Data Scientist
Publiée le
Data science
Machine Learning
40k-62k €
Levallois-Perret, Île-de-France
Télétravail partiel
l’Assistant(e) Externe / Datascience & AI Business jouera un rôle clé dans la conduite et le développement des projets d’intelligence artificielle, depuis le cadrage des besoins métier jusqu’à la mise en production des solutions. Votre mission consistera à allier compétences en gestion de projet et savoir-faire technique en datascience pour garantir la réussite des initiatives IA menées au sein de Personal Finance. Vous interviendrez en appui stratégique et opérationnel, en lien étroit avec les équipes Datascience, IT, et les directions métiers. Vos principales responsabilités incluront : • Piloter et coordonner les projets IA / Data : cadrage, suivi des livrables, reporting et animation des points d’avancement. • Analyser les besoins métiers et les traduire en cas d’usage data exploitables. • Contribuer aux travaux de data science : préparation et analyse de données, validation et suivi de modèles (ML, NLP, IA générative). • Produire des livrables de synthèse (dashboards, rapports, présentations) à destination des équipes métiers et du management. • Assurer la communication transverse entre les équipes techniques et métiers, et participer à la documentation et la capitalisation des bonnes pratiques.
Mission freelance
Data Engineer Expert DataVault - Snowflake / dbt– Azure
Publiée le
Azure
Azure DevOps
DBT
3 mois
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Data Engineer avec une expertise confirmée en modélisation DataVault (compétence indispensable) ainsi qu’une maîtrise de dbt et Snowflake , dans un environnement Azure . La mission s’inscrit dans une transformation Data stratégique visant à industrialiser et standardiser les flux de données. Missions : Concevoir, développer et faire évoluer la plateforme Data basée sur Snowflake et dbt. Modéliser, structurer et optimiser les modèles DataVault (Hubs, Links, Satellites) . Industrialiser, automatiser et fiabiliser les pipelines ETL/ELT . Contribuer à la mise en place et au respect de l’approche ATDD . Assurer la qualité, la traçabilité et la cohérence des produits data. Collaborer avec les équipes Data, Engineering et Projets pour garantir la valeur des solutions livrées.
Mission freelance
‼️URGENT ‼️ 2x Data Analyst Power BI – Industrie ‼️
Publiée le
CI/CD
Microsoft Power BI
Python
1 an
360 €
Strasbourg, Grand Est
🔍 Nous recherchons deux Data Analysts Power BI pour renforcer une équipe projet dans l’industrie. La mission est de longue durée. 📍 Strasbourg (sur site obligatoire) 📅 Démarrages : 1 ASAP + 1 en janvier 🎯 Missions : ✅ Création & optimisation de dashboards Power BI ✅ Analyse et traitement de données (Python, SQL) ✅ Contribution aux workflows Git CI/CD ✅ Échanges réguliers avec les métiers pour comprendre les besoins 👉 3 à 4 ans d’expérience en Data Analysis 👉 À l’aise en environnement industriel 👉 Force de proposition et autonomie
Offre d'emploi
Business Analyst GED / Éditique /Facturation
Publiée le
Agile Scrum
Analyse
GED (Gestion Électronique des Documents)
3 mois
40k-45k €
370-440 €
Brest, Bretagne
Télétravail partiel
🧩 Description du poste Au sein d’une équipe projet et en collaboration étroite avec les équipes métiers et IT, tu interviens sur des solutions documentaires et de gestion des flux , au cœur des enjeux de GED, éditique et facturation , dans le cadre d’une mission longue durée . Tes missions principales : Recueillir, analyser et formaliser les besoins métiers liés à la GED, l’éditique et la facturation Animer des ateliers fonctionnels avec les parties prenantes Rédiger les spécifications fonctionnelles (user stories, règles métier, workflows documentaires) Participer à la conception fonctionnelle des solutions (chaînes documentaires, modèles, règles de génération) Assurer l’interface entre les équipes métiers et techniques Contribuer à la définition et à l’exécution de la recette fonctionnelle Analyser et suivre la résolution des anomalies Accompagner les mises en production et le run fonctionnel Garantir la qualité, la cohérence et la conformité des solutions livrées Assurer le reporting auprès du manager (avancement, alertes, risques)
Mission freelance
Senior Data Scientist Python / ML / LLM / Agentic AI
Publiée le
Large Language Model (LLM)
MLOps
Python
12 mois
400-550 €
Paris, France
Télétravail partiel
Contexte Développement de solutions IA avancées pour le projet du client Missions Concevoir, entraîner et optimiser des modèles ML et LLM Implémenter des architectures Agentic AI Industrialiser les modèles (MLOps, monitoring, performance) Collaborer avec les équipes produit et tech Garantir la robustesse et l’éthique des modèles en production Profil recherché 10+ ans d’expérience en data science Excellente maîtrise de Python et des frameworks ML Expérience réelle de LLM et Agentic AI en production Forte capacité d’abstraction et de vulgarisation Experience en IA / AI en production ANGLAIS ASAP
Mission freelance
Data Analyst / Expert PowerBI Senior (F/H)
Publiée le
1 an
400-550 €
Moissy-Cramayel, Île-de-France
Télétravail partiel
Data Analyst / Expert PowerBI - Freelance - Moissy-Cramayel - 400-550€/jour Contexte : Nous recherchons un Data Analyst Power BI pour une mission d’environ trois mois et demi. L’objectif est de développer et d’améliorer plusieurs outils de pilotage et d’analyse de données dans un contexte industriel complexe. Missions : Concevoir et mettre à jour des tableaux de bord Power BI à partir de données issues de différents systèmes internes. Structurer, fiabiliser et analyser des volumes importants de données afin d’identifier des tendances, alertes et axes d’amélioration. Mettre en place des courbes d’évolution, simulations et indicateurs personnalisés. Reprendre et corriger des tableaux de bord existants afin d’assurer la cohérence entre données sources et résultats affichés. Préparer des livrables clairs et documentés pour faciliter l’exploitation et la maintenance des outils développés. Collaborer avec les équipes métiers pour comprendre les besoins, recueillir les retours et ajuster les outils en conséquence. Compétences requises : Maîtrise avancée de Power BI : modélisation de données, mesures, visuels, automatisation, gestion de filtres. Solide expérience en traitement et structuration de données multidimensionnelles. Capacité à analyser des données techniques, détecter des signaux faibles et produire des indicateurs pertinents. Aisance dans la mise en forme de rapports et la présentation de résultats. Rigueur, autonomie, sens du détail et capacité à travailler avec des interlocuteurs variés.
Offre d'emploi
Chef de projet Data
Publiée le
Business Object
Microsoft Power BI
Shell
1 an
Paris, France
Pour un client du secteur bancaire , nous recherchons un Chef de Projet Data avec 8 à 10 ans d’expérience . Démarrage ASAP – URGENT Compétences clés Connaissance du domaine Finance Expérience bancaire Power BI, Business Objects, Shell Missions principales Pilotage et coordination de projets Data / BI Encadrement et coordination d’équipes techniques Recueil et analyse des besoins métiers Suivi des développements, gestion des risques, planning et reporting Animation des comités et communication projet Garantie de la qualité des livrables (SFG/SFD, tests, MEP, documentation)
Mission freelance
Data Architecte (Secteur Energie / Industrie)
Publiée le
Apache Airflow
Apache Spark
Architecture
12 mois
690-780 €
Rennes, Bretagne
Télétravail partiel
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
Offre d'emploi
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance
Publiée le
Databricks
Jenkins
Python
1 an
35k-49k €
360-430 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.
Offre d'emploi
Développeur Python / Simulation & IA (H/F)
Publiée le
ERP
Rédaction technique
1 an
35k-45k €
370-470 €
Rennes, Bretagne
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) Développeur Python / Simulation & IA (H/F) pour intervenir chez l’un de nos clients. Contexte : Dans un environnement orienté R&D, vous serez intégré(e) au sein de la DSI afin de participer à la création d’un simulateur logiciel permettant de tester, comparer et optimiser des algorithmes d’apprentissage automatique dédiés au contrôle d’un bras robotisé. L’objectif : proposer un environnement de simulation robuste, modulaire et flexible , intégrant des outils issus de la théorie du contrôle et permettant l’évaluation de multiples stratégies d’apprentissage
Offre d'emploi
DATA ANALYST GCP (420€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-80k €
290-420 €
Île-de-France, France
Télétravail partiel
● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery (Oracle est un plus) ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Exploration et extraction des données : rédaction et optimisation de requêtes SQL complexes, automatisation des traitements analytiques pour des performances accrues. ● Création et optimisation de dashboards interactifs sous Looker Studio, avec une capacité à identifier et suivre des KPIs critiques pour le pilotage métier. ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement. ● Esprit d’analyse et appétence pour le fonctionnel, capacité à appréhender rapidement des logiques métier complexes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
4774 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois