L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 163 résultats.
Mission freelance
Data Engineer Niveau 3 - Niort
Signe +
Publiée le
Business Object
Dataiku
SQL
6 mois
410-440 €
Niort, Nouvelle-Aquitaine
Enjeux Stratégiques La valorisation de la donnée est au cœur de notre stratégie de transformation pour 2025-2026. Pour soutenir cette ambition, nous recherchons un Ingénieur Data expérimenté, de niveau III pour intégrer l'équipe de développement DATA DSIM. Vous rejoindrez notre nouvelle équipe DATA pour construire, maintenir et optimiser les plateformes et les pipelines de données, garantissant ainsi la fiabilité et l'accessibilité de la donnée pour l'ensemble de l'entreprise. Missions Clés de l'Ingénieur DATA Le consultant Data sera Rattaché(e) au chef de projet de l'équipe, ce sera un contributeur technique essentiel dans le cycle de vie de la donnée. Le consultant sera au cœur du nouveau modèle DATA décliné chez Macif Finance Epargne
Offre d'emploi
Architecte Data
R&S TELECOM
Publiée le
Apache Hive
Cloudera
Hadoop
1 mois
Lyon, Auvergne-Rhône-Alpes
Le profil interviendra pour définir, concevoir et accomagner la construction de l'architecture cible Data. Ses missions principales seront de : Définir l’architecture cible Data : concevoir l’architecture Data cible n, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance).
Offre d'emploi
Administrateur systèmes et réseaux H/F
Experis France
Publiée le
Villeneuve-d'Ascq, Hauts-de-France
Administrateur systèmes et réseaux H/F - Villeneuve-d'Ascq 🎯 Contexte du poste Au sein de l'équipe Infrastructure, vous prenez part à la gestion et à l'exploitation du système d'information couvrant environ 420 centres en France . Vous contribuez également à la réussite de projets IT stratégiques , liés à l'évolution des magasins, du siège et du Datacenter. Vous jouerez un rôle clé dans la fiabilité , la sécurité , et la performance de nos environnements techniques, tout en apportant un support de haut niveau à nos utilisateurs et partenaires internes. 🔧 Missions principales 1. Exploitation & Supervision Administrer les infrastructures systèmes, réseaux et mobiles. Superviser les solutions informatiques et les services critiques du Datacenter. Assurer le support technique Niveaux 1, 2 et 3 selon les besoins. Gérer et maintenir le parc informatique (postes, équipements réseaux…). 2. Gestion de projets IT Vous prenez en charge ou participez à plusieurs projets majeurs : Déploiement de solutions IT (Infra / Réseau / Mobile). Projet SDWAN Fortinet : gestion des ressources, du budget et de la facturation. Mise en place du VLAN partenaire . Ouverture de nouveaux concepts magasins. Déménagement du siège (pilotage des infrastructures). Projet de maillage 4G . Mise en œuvre du PRA/PCA pour le Datacenter. Mise à niveau des procédures IT et des documentations. 3. Relation utilisateurs & partenaires Garantir un haut niveau de satisfaction des équipes internes. Assurer le suivi et la coordination avec les prestataires et partenaires techniques. Contribuer à l'intégration des nouveaux arrivants (formation, transfert de compétences).
Offre d'emploi
Architecte / Tech Lead IA Python
TS-CONSULT
Publiée le
Azure
Tensorflow
1 an
Île-de-France, France
Bonjour a tous, Profil recherché : Solution Architecte expérimenté avec une double compétence Python/IA et maîtrise du vibe coding, capable de concevoir des architectures innovantes tout en accompagnant une équipe de développeurs dans un contexte agile et international. Hard Skills : • 10 ans d'expérience minimum en développement Python avec une expérience confirmée en architecture de solutions IA/ML • Expérience significative en tant que Tech Lead IA avec accompagnement et montée en compétences d'équipes de développement • Expérience démontrée et expertise reconnue en vibe coding avec utilisation avancée d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Capacité à former et coacher les équipes sur les meilleures pratiques de développement assisté par IA • Expertise confirmée en architecture de solutions IA/ML et intégration de modèles d'intelligence artificielle en production • Maîtrise avancée de Python 3.8+ et des bonnes pratiques de développement • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face Transformers • Expérience confirmée avec les LLMs (fine-tuning, RAG, prompt engineering, agents IA, orchestration) • Maîtrise des frameworks modernes : FastAPI, LangChain/LlamaIndex, Streamlit/Gradio • Connaissance des architectures microservices, API REST/GraphQL, event-driven, architectures orientées données • Expérience des plateformes Cloud (AWS, Azure, GCP) et services IA Cloud (SageMaker, Azure ML, Vertex AI, Bedrock) • Connaissance approfondie des technologies MLOps et pipelines CI/CD pour modèles IA • Maîtrise SQL et NoSQL, Vector Databases (Pinecone, Weaviate, Milvus) • Expertise en DevOps, automatisation des tests, conteneurisation (Docker/Kubernetes) • Expérience en data engineering et pipelines de données (Airflow, Spark, Kafka) • Connaissance des outils de versioning et collaboration (Git, GitLab/GitHub) • Un plus : Connaissance Java/Spring pour interactions avec legacy systems Soft Skills : • Excellentes capacités de leadership technique et de mentorat • Esprit critique développé face au code généré par IA et capacité à valider la qualité • Pédagogie et capacité à transmettre les bonnes pratiques du vibe coding à l'équipe • Esprit d'innovation et de veille technologique active sur l'IA • Rigueur dans la conception architecturale et les bonnes pratiques • Autonomie et force de proposition • Initiative dans la résolution de problèmes complexes • Très bon relationnel et capacité à communiquer avec différents interlocuteurs (techniques et métiers) • Esprit agile et pragmatique : équilibre entre vitesse et qualité • Capacité à fédérer une équipe autour d'une vision technique Anglais Courant.
Offre d'emploi
Data Analyst
Deodis
Publiée le
PowerBI
PySpark
Python
12 mois
40k-48k €
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Sur site à AIx en Provence, télétravail 2/3 jours par semaine L’objectif est d’intégrer un profil Data Analyst / Data Scientist capable d’exploiter les données du système d’information afin d’identifier des incohérences, de développer des analyses avancées et de contribuer à la mise en œuvre de cas d’usage liés à la détection de fraude. L’intervenant devra exploiter et croiser les données issues du système d’information afin d’analyser leur cohérence et leur impact sur les processus métiers sensibles, notamment dans le cadre de la lutte contre la fraude. Description des missions Prendre en compte les données du domaine « Individu Allocataire » et analyser leurs impacts dans le système d’information. Mettre en œuvre des cas d’usage métiers orientés lutte contre la fraude (ciblage, analyse de données, modèles prédictifs). Réaliser des analyses exploratoires et statistiques sur les données disponibles. Développer et maintenir des produits data réutilisables (scripts, traitements, modèles). Produire des restitutions analytiques à destination des équipes métiers. Respecter les normes, standards et bonnes pratiques en vigueur au sein de l’équipe. Livrables attendus Le titulaire devra produire les livrables suivants : Programmes et scripts de traitement de données dans l’environnement Big Data Hadoop . Développements documentés permettant la réutilisation et la maintenance des traitements. Restitution des analyses sous forme de : présentations PowerPoint , tableaux de bord Power BI .
Offre d'emploi
Data Architect Senior / Data Analytics Lead - Supply Chain
Clostera
Publiée le
BigQuery
Data analysis
Looker Studio
1 an
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui nous recherchons un Data architect Senior / data Analytics Lead F/H pour renforcer les équipes data d’un grand groupe retail, et accompagner la transformation analytique de ses activités. Ce que vous ferez : Au sein de l’équipe dédiée à la Data Supply Chain , vous interviendrez comme référent data senior pour accompagner les équipes métiers Supply Chain dans l’exploitation de la donnée afin d’optimiser la performance opérationnelle. Vous serez le pivot entre les équipes métier et les équipes data (data scientists, data engineers, data viz, data governance). Vos missions principales : Analyse et exploitation de la donnée Structurer et conduire des analyses data complexes de bout en bout Extraire, traiter et analyser des volumes importants de données Identifier des insights permettant d’améliorer les processus Supply Chain Construction d’outils d’aide à la décision Définir et suivre des KPI métiers Concevoir des reportings et dashboards interactifs Formaliser les résultats et recommandations business Interface métier / équipes data Interagir étroitement avec les équipes Supply Chain Traduire les besoins métiers en problématiques analytiques Collaborer avec les équipes Data Science, Data Engineering et Data Viz Communication et restitution Présenter les analyses et résultats aux équipes métiers Intervenir dans des restitutions auprès du top management Supply Chain Challenger les demandes analytiques et proposer des améliorations
Mission freelance
Consultant Data & Reporting - Cash Management
NOVAMINDS
Publiée le
Business Analyst
Data management
4 mois
550-650 €
Paris, France
Objectif de la mission · Collecter, produire et valider les données requises afin de réaliser l’ensemble du reporting interne. · Assurer une gestion centralisée de la disponibilité et de la fiabilité des données, dans les délais, pour permettre la livraison du reporting. Prestations demandées · Coordonner avec différentes équipes de reporting et autres parties prenantes (IT, métiers) afin d’intégrer les exigences réglementaires dans le reporting. · Revoir les processus de reporting existants, identifier des opportunités d’amélioration de l’organisation opérationnelle et mettre en œuvre les changements. · Partager et former les équipes de production de reporting aux nouvelles solutions de reporting conçues. · Revoir et piloter le reporting des KPI, garantir les niveaux de service/qualité, et reporter aux parties prenantes via différents comités. · Interagir avec différentes équipes.
Offre d'emploi
Business Analyst MDM / Data
VISIAN
Publiée le
Big Data
Data governance
ETL (Extract-transform-load)
1 an
Paris, France
Descriptif du poste Au sein d'une équipe data qui a pour mission de définir la stratégie et la feuille de route Data du groupe, de développer et gérer l'écosystème de partenaires Data, de définir et déployer la gouvernance des données, de définir et piloter le plan d'acculturation Data, et d'accompagner le déploiement des produits et services Data. Le Global Data Office a en charge le développement et le maintien des données de référence du groupe, et a lancé un programme de refonte de la plateforme de Master Data Management
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Nantes, Pays de la Loire
Contexte de la mission Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Data Engineer Streaming
KLETA
Publiée le
Apache Kafka
Apache Spark
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Chef de projet coordination archivage audiovisuel - Gestion de workflows et métadonnées
INSYCO
Publiée le
Active Directory
Database
Internet Protocol (IP)
36 mois
400-550 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Chef de projet coordination archivage audiovisuel – Gestion de workflows et métadonnées Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/INA/5152 dans l'objet de votre message Contexte La prestation s'inscrit au sein d'un service Ingénierie Support Process rattaché à une direction des Technologies et des Systèmes d'Information d'un grand groupe audiovisuel public. Une convention est en place entre le client et un partenaire institutionnel spécialisé dans l'archivage audiovisuel. Dans le cadre de cette convention, le client reverse à ce partenaire les métadonnées et les médias des journaux diffusés sur ses antennes. Une coordination est nécessaire afin de faire évoluer, optimiser et rationnaliser les processus de reversement, et de gérer des reprises d'antériorité sur des fonds documentaires des antennes du client (sites régionaux, outre-mer, siège). Missions principales Animer les comités mensuels avec l'ensemble des parties prenantes côté client et côté partenaire institutionnel Planifier et coordonner les actions remontées lors de ces comités mensuels Assurer la communication et la liaison auprès des différentes équipes impliquées (en région, en outre-mer, au siège et avec le partenaire institutionnel) Récupérer les données à analyser et à traiter Intervenir en support des équipes techniques locales pour l'utilisation des systèmes Faire évoluer si nécessaire les modalités de la reprise de données (évolutions logicielles, analyses complémentaires, …) et de média
Mission freelance
Ingénieur d'études IT
WINSIDE Technology
Publiée le
Agent IA
Google Cloud Platform (GCP)
Supply Chain
1 an
390-550 €
Lille, Hauts-de-France
"Nous recherchons un Application Analyst / Ingénieur d'étude IT Senior (8 ans+ exp.) pour rejoindre un environnement international et innovant. Votre rôle : - Appréhender les processus métiers complexes et designer des solutions IT robustes (Cloud Native) et lien avec éditeur. - Intervenir sur l'ensemble du cycle de vie des applications (Cadrage, Build et suivi du Run). - Piloter et optimiser nos flux d'intégration (maîtrise des échanges de données indispensable). - Documenter, structurer et faire vivre les référentiels de processus."
Offre d'emploi
Data Engineer GCP
K2 Partnering Solutions
Publiée le
Google Cloud Platform (GCP)
48k-57k €
Belgique
En tant que Data Engineer, vous serez impliqué(e) dans la conception, le développement et l’optimisation de solutions data modernes sur Google Cloud Platform. Vous bénéficierez : d’un accompagnement terrain (on-the-job training) , d’un encadrement par des experts reconnus , d’un environnement collaboratif mêlant équipes IT et métiers . C’est une opportunité unique de développer vos compétences tout en évoluant dans une équipe dynamique et conviviale 🌟 Pourquoi nous rejoindre ? Projet de transformation stratégique à forte visibilité Utilisation de technologies modernes et innovantes Environnement international et collaboratif Réelles opportunités d’apprentissage et d’évolution
Mission freelance
PHP Symfony Culture IA et DevOps
Kleever
Publiée le
Architecture
Domain Driven Design (DDD)
PHP
12 mois
500-600 €
Paris, France
Développeur PHP Symfony Senior (Backend / DDD) Contexte : Nous recherchons un développeur PHP Symfony senior pour rejoindre une équipe senior. L’équipe participe à la modernisation générale de la Stack (migration vers cloud, découpage d’applications, CDC, intégration au Legacy). Fort niveau d’adhérence entre équipes produit, SRE et autres services. Missions principales : Développer et maintenir des API backend en PHP / Symfony selon les principes DDD. Concevoir et implémenter des agrégats, events et workflows asynchrones (RabbitMQ). Participer au design d’architecture (hexagonal, CQRS) et aux décisions techniques de l’équipe. Assurer la qualité : TDD, tests unitaires, fonctionnels et end-to-end, revues de code. Collaborer étroitement avec les SRE pour le debugging infra et le déploiement (CI/CD, containers, monitoring). Contribuer au 70 % Build / 30% run / résolution d’incidents sur des services critiques et à la maintenance corrective. Faciliter la communication inter-équipes : produire ADRs, clarifier langages métiers/événements. Profil recherché (compétences techniques) : Excellente maîtrise de PHP et Symfony (développement d’API REST/GraphQL, bonnes pratiques Symfony). Connaissances DDD, BDD, architecture hexagonale, CQRS et conception d’agrégats. Vous cherchez une mission Craft pour changer de poste. Expérience sur systèmes asynchrones (RabbitMQ, CDC) et mécanismes d’événements. Tu es sur une mission depuis des mois tu sens que ton équipe ne va plus dans le sens de l’histoire. Tu fais énormément de veille tout en étant pragmatique. Tu ne reste pas sur tes acquis malgré un niveau d’expertise avancé. Tu as envie de partager ton expertise avec tes pairs a Tu as déjà travaillé sur des équipes d’expert ou participer a la création partie tech d’un startup (Pas solo) de A a Z. Bonnes pratiques de tests : unitaires, fonctionnels, E2E ; expérience TDD appréciée. Confort avec cloud AWS ou GCP ou Azure, containers, CI/CD et debugging infra (logs, commandes Linux, SRE collaboration). Notions d’outils d’observabilité et monitoring (metrics, alerting). Modalités : Rythme : sprints Scrum, forte exposition au run et incidents. Environnement : PHP/Symfony principalement, nouvelles apps en Symfony Équipe technique engagée, beaucoup d’initiatives produit et technique, opportunités de modernisation et d’impact sur produits critiques. Mission longue durée pas de limite, préavis de 1 mois accepté Pourquoi rejoindre ? Organisation en 3 J / 2 J - Possibilité de full TT négociable si hors IDF (Idéalement avec accès direct a paris - Lyon, Lille, tours, bordeaux ) le candidat doit être basé en France. Merci de ne pas postuler si vous êtes basé à l'étranger. ESN merci de n'envoyer que des experts, pas de débutant. Tarif indicatif et reste a discuter selon expertise. Merci de proposer une offre réaliste par rapport à votre niveau d'expertise. Je serais ravi d'échanger sur cette mission.
Offre d'emploi
Data Scientist
ANDEMA
Publiée le
Databricks
PySpark
Python
12 mois
55k-65k €
400-500 €
Lille, Hauts-de-France
Contexte Entreprise en forte croissance , avec un volume d’activité soutenu et de nombreux projets data en cours et à venir. Dans ce cadre, nous recherchons un(e) Data Scientist pour compléter l’équipe existante et contribuer activement au développement de nouveaux sujets stratégiques. Modalité : Pré-embauche (PE) Possibilité d’intervenir en freelance pendant la période de pré-embauche , avec une volonté forte d’internalisation à l’issue du process. Votre mission Vous rejoindrez une équipe data dynamique avec pour objectif : Prendre en main de nombreux sujets variés Construire, tester, industrialiser des modèles et analyses Travailler en étroite collaboration avec les équipes métiers Participer à la structuration et à la montée en maturité data de l’entreprise Contribuer à des problématiques de mesure de performance, campagnes marketing, retail média , etc. Ici, pas de silo : vous serez exposé(e) à des problématiques multiples et stimulantes. Nous recherchons donc des candidats passionnés et polyvalents. Stack technique Python (obligatoire) PySpark (obligatoire) Databricks Environnements data modernes orientés cloud Pourquoi nous rejoindre ? - Entreprise en forte croissance - Projets variés et concrets - Forte exposition business - Possibilité d’évolution rapide - Environnement agile et stimulant Si vous aimez la diversité des sujets, l’impact business et les environnements en croissance, cette opportunité est faite pour vous
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Offre FREELANCE qui devient CDIC quand l'ESN appelle
- amortissements véhicule acheté avant début d'activité
- Facturation électronique 01 : Rappel du calendrier !
- Seulement 25% de mes candidatures sont consultées
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Facturation electronique 2026
6163 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois