L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 598 résultats.
Mission freelance
CONSULTANT MOE BI ORIENTE DATA
Publiée le
BI
MOE
24 mois
275-550 €
Nanterre, Île-de-France
Télétravail partiel
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
Consultant Technique SAP S/4HANA (Intégration & Data) H/F
Publiée le
API
Architecture
Idoc
6 mois
Montpellier, Occitanie
Télétravail partiel
Et si vous rejoigniez un programme S/4HANA qui compte vraiment ? Notre client, groupe industriel international , transforme en profondeur son écosystème IT autour de SAP S/4HANA. Un programme structuré, soutenu, avec une vraie vision long terme : qualité de la donnée, intégration inter-systèmes, alignement stratégique et excellence opérationnelle. Pour accompagner cette transformation, nous recherchons un Consultant Technique SAP S/4HANA passionné par l’intégration, la data et les architectures applicatives modernes. Ici, vous n’êtes pas une “ressource”. Vous devenez le référent technique d’un programme SAP à haute visibilité.
Offre d'emploi
Chef de Projets / PMO - Delivery IA (H/F)
Publiée le
IA
Pilotage
75015, Paris, Île-de-France
Télétravail partiel
Secteur Télécommunications - contrat CDI Contexte : Une direction SI dédiée à la modernisation, à la Data et à l’IA cherche à renforcer son pôle de pilotage de projets. Après plusieurs jalons atteints en 2025 – structuration du processus d’identification des cas d’usage IA, mise en place d’une plateforme Cloud commune, premières solutions IA déployées – l’objectif 2026 est d’accélérer l’industrialisation et la diffusion des produits IA au sein des processus métiers. Pour soutenir cette montée en puissance, une mission de pilotage de projets et de PMO est ouverte. Objectif de la prestation : La mission vise à assurer le pilotage complet de projets et expérimentations IA , ainsi que l’animation du portefeuille Delivery IA . Périmètre de la prestation : Pilotage de projets / expérimentations Supervision des prestations partenaires (le cas échéant) Pilotage des activités sous responsabilité interne : validation des livrables, préparation des environnements et jeux de données Planification et coordination de l’ensemble du cycle projet : étude, développement, intégration, tests, déploiement Organisation et animation des travaux avec les équipes Métiers et les équipes SI Mise en place de la gouvernance, reporting opérationnel et consolidation de l’avancement Activités PMO Animation des revues de portefeuille Delivery IA Organisation des ateliers d’arbitrage, d’analyse ou de priorisation Mise en place et mise à jour d’un reporting complet et partagé Livrables attendus : Roadmaps produits / projets Suivi d’avancement, plans d’actions, reporting régulier Animation du portefeuille IA (revues, communications, priorisation) Releases et livrables projet selon les jalons définis
Offre d'emploi
Consultant FinOps Data & Monitoring – Cloud Azure (H/F)
Publiée le
Azure
Snowflake
6 mois
Paris, France
Télétravail partiel
Contexte Dans le cadre d’un programme de transformation Cloud, nous recherchons un(e) Consultant FinOps orienté Data & Analyse pour exploiter les données de consommation Cloud et mettre en place des mécanismes de pilotage financier, forecast, supervision et alerting . Le poste est centré sur l’ analyse des données Azure , la réalisation de POC analytiques , et la construction d’indicateurs FinOps permettant d’anticiper les dérives budgétaires. Missions Exploitation et analyse de la donnée Cloud Collecter et analyser les données de consommation Azure et d’outils Cloud/SaaS. Réaliser des analyses exploratoires et POC , notamment via le requêtage KQL , pour comprendre les usages, coûts et dérives potentielles. Structurer et exploiter les données dans Snowflake afin de produire des analyses FinOps exploitables. Pilotage FinOps & forecast Construire des indicateurs FinOps : suivi des coûts, tendances, dérives. Mettre en place des prévisions budgétaires (forecast) basées sur les données de consommation. Contribuer au showback et à l’aide à la décision pour les équipes projets et FinOps. Supervision, monitoring et alerting Définir et implémenter des règles de monitoring et d’alerting sur les dérives financières. Mettre en place une surveillance liée à la juste consommation des ressources Cloud. Alimenter les outils de reporting et de visualisation (dashboards). Contribution aux activités FinOps Participer au suivi des coûts et au support des équipes projets. Identifier des opportunités d’optimisation et contribuer aux plans de remédiation. Maintenir et faire évoluer les reportings FinOps existants.
Mission freelance
Expert Data IA Senior
Publiée le
Cloud
Deep Learning
DevOps
6 mois
560 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Cette mission, basée à Lyon avec une présence requise de deux jours par semaine sur site, vise à accompagner une organisation dans l’intégration avancée de solutions d’Intelligence Artificielle. D’une durée de six mois, du 2 janvier au 30 juin 2026, elle s’adresse à un profil Senior disposant de 5 à 7 années d’expérience et maîtrisant l’ensemble des enjeux Data et IA. Le tarif d’achat maximum est fixé à 576 euros. L’expert Data IA aura pour principale responsabilité de comprendre et d’analyser les besoins métiers afin d’identifier les opportunités de création de valeur grâce à l’IA. Il interviendra dans la conception, le développement et la mise en œuvre de prototypes et de Proofs of Concept, en évaluant rigoureusement leurs performances pour garantir leur pertinence et leur efficacité. Il devra également formuler des recommandations techniques et stratégiques pour orienter le choix des solutions IA à déployer. Les compétences attendues couvrent un large spectre : connaissance approfondie des modèles d’IA, des frameworks et des LLM, maîtrise de la programmation, du Machine Learning et du Deep Learning, ainsi que des environnements DevOps et Cloud. La capacité à communiquer clairement, à vulgariser des concepts complexes et à travailler selon les méthodologies agiles est également essentielle pour mener à bien cette mission.
Offre d'emploi
Expert Python / Innovation & Services Cloud
Publiée le
Architecture
CRM
DevSecOps
1 an
Paris, France
Contexte Dans le cadre d’une transformation digitale d’envergure internationale , la mission s’inscrit au sein d’un groupe leader de l’assurance présent dans plus de 80 pays. L’objectif est de fournir des services IT standardisés à l’ensemble des entités du groupe, en améliorant l’excellence opérationnelle, l’alignement du portefeuille applicatif et l’efficacité des coûts. La mission contribue à l’évolution d’une plateforme SaaS de gestion de contenus (Content Management eXperience – CMX) , conçue comme une solution clé en main, exposant des API REST et une interface web, conforme aux standards du groupe en matière d’ architecture, sécurité, conformité et résilience . L’enjeu principal est d’ enrichir la plateforme par de nouvelles fonctionnalités, des services innovants (notamment basés sur l’IA générative) et d’ accélérer les migrations Cloud . Objectif de la mission Maintenir, faire évoluer et enrichir les outils Python cœur de plateforme , tout en concevant de nouveaux services à forte valeur ajoutée (IA, sémantique, cloud-native), en lien étroit avec les équipes métiers et techniques. Missions principales Développement & évolution des outils cœur Maintenir, auditer, stabiliser et refactoriser les outils Python existants . Garantir un code propre, conforme PEP8 , testé et documenté. Harmoniser et industrialiser de nouveaux modules (ex. traduction de règles métiers en workflows techniques automatisés, stratégies de gestion et d’archivage de fichiers). Innovation & prototypage Concevoir et piloter des sprints d’innovation rapides . Prototyper de nouveaux services basés sur des cas d’usage concrets : IA générative Tagging automatique Recherche sémantique Contrôle qualité des contenus Challenger les besoins métiers et concevoir des proofs of concept (POC) . Évaluer la faisabilité technique et proposer des roadmaps de mise en production . Collaboration & bonnes pratiques Travailler étroitement avec les métiers, product managers et ingénieurs . Réaliser des revues de code et partager les bonnes pratiques (clean code, TDD, CI/CD). Accompagner et mentorer les équipes sur les standards de développement. DevOps & Cloud Contribuer aux pipelines CI/CD . Participer aux déploiements automatisés et à l’ Infrastructure as Code (Terraform, CloudFormation). Environnement technique Langages & développement Python (avancé) Git, Bash Java, JavaScript (React / Vue) Data, IA & sémantique Pandas, regex Parsing JSON / XML Prompt engineering NoSQL (MongoDB, MarkLogic) RDF / SPARQL, graphes Cloud & DevOps AWS (S3, Lambda) CI/CD : Jenkins, GitLab CI Terraform, CloudFormation OpenShift, Kubernetes Artifactory, OpenLDAP Qualité & tests Pytest Frameworks BDD (Behave, Cucumber) Selenium Sécurité & qualité de code : SonarQube, Snyk
Offre d'emploi
Développeur data F/H
Publiée le
ETL (Extract-transform-load)
SAP
1 an
40k-45k €
350-500 €
Ille-et-Vilaine, France
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) Développeur data F/H pour intervenir chez un de nos clients. Contexte : Dans le cadre d’un projet structurant pour la DSI, vous intervenez sur la conception, le développement et l’optimisation des solutions décisionnelles et d’intégration de données. L’objectif : garantir la qualité, la cohérence et la traçabilité des données tout en proposant des solutions adaptées aux besoins métiers et en assurant leur intégration dans des architectures robustes et évolutives.
Offre d'emploi
Data Engineer H/F
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer pour rejoindre une équipe Data moderne et orientée traitement de données volumétriques. Vous participerez au design, à la mise en place et à l’optimisation des pipelines de données. Missions : Développement de pipelines ETL / ELT Modélisation et structuration de data warehouses / data lakes Optimisation des performances et qualité des données Participation à la mise en place de frameworks DataOps Collaboration étroite avec Data Analysts / Data Scientists
Mission freelance
Devops delivery IA(H/F)
Publiée le
DevOps
3 mois
100-480 €
Paris, France
Télétravail partiel
TJM Max 480 euros non Négociable 2 Jours de TT non négociable Au sein de la DSI de SFR, la Direction Modernisation du SI, DATA et IA est en charge des projets et plateformes DATA&IA, avec un ADN de transformation des usages et des processus. Sur l'intelligence artificielle, plusieurs étapes ont été franchies en 2025 passant par la mise en place d'un processus d'identification des cas d'usages IA ainsi l'expérimentation consolidée sur une plateforme commune sur Google Cloud Plateform, avec à la clé quelques produits IA mis en production et déployés pour tous. Notre objectif pour 2026 est d'élargir la liste des produits IA et chercher une intégration simplifiée dans les processus Métiers. Augmenter notre capacité de production exige une disponibilité d'un processus et outillage DevOps exigeant et solide. Pour la bonne exécution de cet objectif, SFR est à la recherche d'une prestation avec un profil DevOps expérimenté pour piloter la structration de la chaîne de développement, de tests et d'observabilité. DEFINITION DE LA PRESTATION 'Dans le cadre de cette mission, la prestation adressera 4 volets majeurs en étroite relation avec l'équipe de développement et les chefs de projet : 1/ DevOps : - Réaliser un inventaire de la chaîne DevOps, la documenter et proposer une cible répondant aux enjeux d'automatisation et la maîtrise de la qualité, tout en respectant le cadre Valentine Cloud - Contribuer à la mise en oeuvre de la cible - Animer les travaux au global pour atteindre cette cible 2/ Monitoring & Troubleshooting : - Proposer une architecture et un outillage pour la mise en oeuvre d'une observabilité - Mettre en oeuvre cette architecture & piloter les contributions de l'équipe de développement - Accompagner l'onboarding des développeurs, testeurs et chefs de projet 3/ Pilotage de l'activité : - Contribuer à la mise en oeuvre des dispositifs de pilotage de l'activité Pour l'ensemble de ces activités, une gouvernance ainsi qu'un reporting régulier et clair doivent être mis en place. Indispensable DevOps, GitLab, Elastic, Python, NodeJS Profil ayant travaillé sur des projets IA sur Google Cloud
Offre d'emploi
Data Analyst (H/F)
Publiée le
Data analysis
Data science
30k-65k €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Votre mission En tant que Data Analyst (H/F) , vous jouerez un rôle clé dans la valorisation des données au service du métier. Vous serez responsable de l’analyse de grands volumes de données, de la production d’analyses et de reportings à forte valeur ajoutée, et de l’accompagnement des équipes métier dans l’optimisation de l’utilisation de leurs données, en lien avec les objectifs stratégiques de l’organisation. Vos responsabilités seront : Analyser de grands volumes de données afin de comprendre les enjeux métier et les besoins exprimés par les parties prenantes Traduire les besoins business en analyses de données pertinentes et exploitables Contribuer à la sélection, à l’implémentation et à l’amélioration des outils d’analyse et de reporting Produire des analyses stratégiques, des tableaux de bord et des reportings à destination du business Identifier des tendances, des anomalies et des opportunités à partir des données Présenter et vulgariser les résultats d’analyse auprès des parties prenantes métier Collaborer avec les équipes IT, data et métier afin d’assurer la qualité, la cohérence et la fiabilité des données Aider les équipes métier à mieux exploiter et optimiser l’usage de leurs données S’adapter à l’environnement spécifique et aux enjeux de nos clients
Offre d'emploi
Coordinateur Data H/F
Publiée le
3 mois
75001, Paris, Île-de-France
Vous êtes actuellement disponible et recherchez une nouvelle mission en Data ? Veuillez trouver ci-dessous une opportunité de Coordinateur Data H/F Lieu : Paris Démarrage: Début Janvier Durée: 3 Mois Type de contrat: Intérim Mission : L'objectif de cette mission de transition est de saisir, valider et maintenir des données précises et fiables. Tâches : * Créer et maintenir les enregistrements des produits, fournisseurs et clients dans les systèmes * Garantir que toutes les données sont précises, complètes et conformes aux normes internes. * Traiter les configurations et modifications des produits conformément * Effectuer des vérifications de données courantes pour identifier et corriger les erreurs. * Signaler les problèmes complexes * Fournir des mises à jour de données aux parties prenantes * Réaliser des rapports et tableaux de bord Compétences: Administration de données dans le secteur industriel Maitrise d'excel et Google Sheets connaissance de systèmes ERP Expérience en gestion de données Bon anglais Pour plus d'informations, merci de m'envoyer votre CV.
Mission freelance
POT8759 - Un Expert DATA IA Sénior sur Gare de Lyon
Publiée le
Shell
6 mois
260-480 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un des ses clients un Expert DATA IA Sénior sur Gare de Lyon. Projet : Dans le cadre des projets transformants sous l'angle d'Agent IA supra, recherche à se renforcer pour piloter/cadrer certains travaux prioritaires avec un forte dominante Marketing. Ce travail nécessite une forte autonomie et une capacité à coordonner des acteurs multiples tout en arrivant à un consensus stratégique et technique. Le candidat devra pouvoir s'appuyer sur son expertise ainsi que celle de son cabinet sur la vertical Data IA : Benchmark, bonnes pratiques sur les besoins en Data pour une IA, modèles IA (création/réutilisation, entrainement, évaluation métier, finops et projection, contraintes bancaires et cyber sur l'IA, interconnexions de produits IA majeurs pour structurer les bons travaux à lancer en priorité pour des livraisons fréquentes et cohérentes)... Avant fin 2025, l'ensemble du chantier doit être pré-cadré (toutes les réunions organisées et cordonnées ; notes de réunions à envoyer le jour J/J+1 et livrables de cadrage complets à fournir) avec une feuille de route à plusieurs niveaux sur 2026 tout en préparant si besoin en 2025 des travaux nécessaires à la bonne tenue des jalons temporels de 2026. Principaux livrables : Construire la feuille de route du stream Data IA avant fin 2025 pour certains projets transformants notamment dans la thématique Marketing en collaboration avec les bon acteurs. Compétences requises : Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Communications, bon relationnel Organisation et rigueur Sens du travail en équipe Autonomie
Mission freelance
Program Manager
Publiée le
Big Data
Cloud
Data management
1 an
Lille, Hauts-de-France
Télétravail partiel
Compétences techniques marketing - Expert - Impératif Product management - Expert - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Responsabilités Principales 1. Stratégie de Contenu et d'Audience Identification et Cartographie des Personas : En collaboration avec le Product et l’UX, aider à définir et documenter les différents clients/utilisateurs de la plateforme (Développeurs, Product Owners, Data Engineer, Leaders PTF et BU, etc.) et leurs besoins spécifiques en information (y compris en situation de crise). Audit et Structuration du Contenu Existant : Analyser les supports actuels et recommander une architecture de contenu logique et unifiée pour améliorer l'accessibilité et la clarté. Définition des Messages Clés : Traduire les fonctionnalités et les avantages de la plateforme en messages clairs, orientés bénéfices pour chaque persona. 2. Création et Gestion du Contenu Produit Production de Contenu Ciblé : Élaborer des supports structurés et didactiques pour l'adoption et la compréhension des produits et services de la plateforme. Cela inclut, sans s'y limiter : Fiches Produit/Service détaillées (pour les équipes Product Management). Guides d'Utilisation et tutoriels (pour les utilisateurs). Notes de version ( Release Notes ) et FAQ claires. Contenu pour l'onboarding des nouveaux services. Optimisation des Canaux de Contenu : Gérer et optimiser les plateformes et outils de partage de contenu pour s'assurer que le contenu arrive aux bonnes personnes au bon moment. Mesure de l'Impact : Suivre les indicateurs clés (fréquence de consultation, feedback utilisateur, taux d'adoption) pour évaluer l'efficacité des contenus et itérer. 3. Contribution à l'Amélioration de l'Expérience Utilisateur Boucle de Feedback : Mettre en place des mécanismes pour recueillir le feedback des personas sur le contenu et les services afin d'alimenter les équipes Product Management. Aide à la l’animation du collectif de nos utilisateurs. Appui aux Événements d'Engagement : Aider à structurer les sessions d'information (ateliers, showcases, démos) en s'assurant que le contenu présenté est pertinent et adapté à l'audience. 4. Alignement Coordination avec la Communication Groupe : S'assurer que le contenu produit est en accord avec la charte éditoriale et graphique du groupe (utilisation des logos, des templates, etc.) tout en restant focalisé sur le contenu technique et l'adoption produit de la plateforme. Compétences Requises : Compréhension Technique et Pédagogie : Capacité avérée à décortiquer des sujets complexes (Data, Cloud, API, développement) et à les simplifier. Capacité d'Analyse et de Synthétisation : Aisance pour identifier les besoins d'information d'une audience (persona) et structurer un contenu en conséquence. Maîtrise de la Rédaction et des Outils de Contenu : Excellent niveau rédactionnel (précision, concision). Connaissance des outils de documentation et de gestion de contenu.
Mission freelance
DATA ANALYST SENIOR LOOKER
Publiée le
24 mois
300-600 €
Paris, France
Télétravail partiel
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
Mission freelance
Data Analyst Senior – Contexte International (h/F)
Publiée le
Data analysis
1 an
400-550 €
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Dans le cadre d’un programme international de déploiement de systèmes vente, un acteur majeur du secteur média recherche un Data Analyst expérimenté (h/f)pour accompagner les équipes IT et les Business Units. La mission s’inscrit dans un environnement complexe et international, avec un fort enjeu de maîtrise des flux de données end-to-end, de sécurisation des migrations de données et d’industrialisation des processus de chargement. Missions principales Comprendre et piloter les flux de données de bout en bout entre systèmes Corporate et locaux Analyser les sources de données des Business Units et en évaluer la qualité Organiser et piloter les actions de data migration dans le cadre des projets de rollout Définir et formaliser des stratégies de migration de données claires et robustes Piloter les chargements de fichiers dans le respect des délais projet Collaborer étroitement avec les équipes produit sur les aspects techniques Animer les comités de restitution (avancement, risques, plans de mitigation) Contribuer à l’industrialisation des processus de data loading Assurer un reporting régulier auprès des chefs de projet
Offre d'emploi
Data Engineer / Data Analyst
Publiée le
BigQuery
CI/CD
Google Cloud Platform (GCP)
2 ans
30k-45k €
400-500 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
5598 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois