L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 974 résultats.
Offre d'emploi
Data Engineer H/F
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer pour rejoindre une équipe Data moderne et orientée traitement de données volumétriques. Vous participerez au design, à la mise en place et à l’optimisation des pipelines de données. Missions : Développement de pipelines ETL / ELT Modélisation et structuration de data warehouses / data lakes Optimisation des performances et qualité des données Participation à la mise en place de frameworks DataOps Collaboration étroite avec Data Analysts / Data Scientists
Offre d'emploi
Data Analyst
Publiée le
Data quality
Gouvernance
Master Data Management (MDM)
3 ans
45k-50k €
420-500 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
En tant que Data Analyst, vous connectez les processus métiers aux besoins data. Vous contribuez également à la stratégie Master Data et transactionnelle en analysant les processus et en garantissant l’intégration des données. Votre rôle Analyse métier et conception de Data Use Cases Animer des groupes de travail pour accompagner les équipes métier dans la création des Service Blueprints, l’identification des principaux Data Use Cases et la compréhension des dépendances Consolider le Data Use Case à partir du processus métier, en l’alignant avec les équipes projets, et le gérer dans l’outil de Data Governance Réaliser l’analyse des écarts afin d’identifier les systèmes IT impactés et sécuriser la bonne définition des fonctionnalités nécessaires Gouvernance des données et structuration Définir, en collaboration avec le Data Steward, les règles de gestion et le cycle de vie des données transactionnelles et référentielles Accompagner le Data Steward dans l’intégration des données référentielles au sein du Master Data Management System Contribuer à la mise à jour du Data Catalog en fournissant des définitions de données claires Intégration, qualité et déploiement des données Accompagner les Business Units dans la mise en place des flux de données transactionnelles et dans l’utilisation des données référentielles via les Data Use Cases Participer aux tests d’intégration, systèmes et de recette; gérer la stratégie de migration, de bascule et les chargements de données Analyser les données existantes dans les systèmes BI et DataHub pour valider la cohérence des solutions et proposer des améliorations proactives de la qualité des données
Mission freelance
Directeur DATA
Publiée le
SQL
3 mois
Yvelines, France
Télétravail partiel
Pour le compte de l'un de nos clients, nous recherchons un(e) consultant(e) SAP BI. Besoin : En collaboration avec le Chef de Projet métier, vous piloterez le suivi du chantier Data Analytics dans le cadre de la reprise des queries et codes spécifiques pour le reporting dans S4 ou sur la Data Platform (AWS). Le profil sélectionné assurera la planification et le suivi des phases clés du projet (Réalisation, Tests métier, Go-live), coordonnera les équipes concernées (IS pour S4, Digital Factory pour la Data Platform, Domain Leader/Data Manager pour les tests), et préparera les comités projet hebdomadaires pour présenter l’avancement du stream Data Analytics.
Mission freelance
Data Analyste Senior
Publiée le
Microsoft Power BI
Piano Analytics
SQL
210 jours
Paris, France
Télétravail partiel
Contexte et définition du besoin Une grande Direction Data rattachée à la Direction du Numérique d’un acteur majeur du secteur médias / contenus numériques recherche un Data Analyste Senior pour soutenir la transformation data-driven et le pilotage des performances de ses plateformes numériques. La mission vise à accompagner les équipes produit et éditoriales sur l’analyse de la performance des contenus jeunesse dans un contexte de forte évolution des usages digitaux. 2. Prestations attendues Analyse et reporting Recueil et formalisation des besoins auprès des équipes internes. Définition des sources de données et rédaction des cahiers des charges à destination des Data Engineers. Conception, automatisation et maintenance des dashboards Power BI . Itérations et validations en mode agile. Accompagnement et pilotage Coaching et acculturation data des équipes internes. Définition, harmonisation et suivi des KPIs transverses. Contribution au déploiement et à l’amélioration du tracking multi-supports (Web, App, TV). Formalisation des besoins analytics en lien avec les équipes produit et techniques. Analyse des usages Analyse des audiences et comportements utilisateurs via Piano Analytics / AT Internet , Nielsen , eStat Streaming . Analyse des parcours et de l’expérience utilisateur avec ContentSquare . Collaboration avec l’équipe Études pour les analyses vidéo et usage. 3. Compétences recherchées Compétences techniques Maîtrise confirmée de : Piano Analytics / AT Internet , eStat Streaming, Nielsen. Expertise Power BI. Très bonne connaissance SQL. Connaissance GCP, Power Automate. Outils : Excel, PowerPoint, Jira, Confluence, GetFeedback/Usabilla. Compétences solides en tracking multi-supports. Expérience en analyse UX avec ContentSquare. Compétences fonctionnelles Capacité à structurer des KPIs, piloter des sujets analytics et produire des reporting fiables. Expérience en coaching et accompagnement data. Gestion de projet.
Mission freelance
Consultant Cloud
Publiée le
Active Directory
Azure
VMware
18 mois
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Consultant Cloud & On-Premise (Azure / VMware) capable de concevoir, déployer et optimiser des environnements IT hybrides. Il prend en charge l’administration avancée des infrastructures Microsoft Azure , ainsi que la virtualisation VMware vSphere , tout en assurant la gestion et le support de systèmes Windows et Linux . Son rôle inclut : la mise en œuvre et l’amélioration continue des architectures Cloud et On-Premise, l’administration et le troubleshooting de niveau 2/3 , la garantie de la disponibilité , de la sécurité et de la performance des systèmes, la participation active aux projets d’évolution technologique et à la rédaction de la documentation technique. Le poste s’inscrit dans un contexte international : une maîtrise réelle de l’anglais courant est indispensable pour échanger avec les équipes globales. Une expérience dans le secteur logistique constitue un atout majeur, notamment pour comprendre les contraintes opérationnelles et les enjeux de disponibilité.
Offre d'emploi
Tech Lead Cloud AWS - H/F
Publiée le
Cloud
50k-55k €
31000, Toulouse, Occitanie
Télétravail partiel
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Tech Lead Cloud AWS pour l'un de nos clients du secteur aéronautique. Vous interviendrez sur le site client situé à Toulouse (31). À ce titre, vos missions quotidiennes seront les suivantes : - Analyser le contexte technique, les besoins utilisateurs et les contraintes des équipes IA, Data et RPA ; - Définir le modèle cible de la plateforme Boost IT (architecture, sécurité, outillage, CI/CD, environnements, interfaces SEP IT) ; - Concevoir les architectures Cloud AWS en conformité avec les standards industriels et les référentiels SEP IT ; - Implémenter un MVP opérationnel de la plateforme, incluant les premiers environnements Cloud ; - Mettre en place des chaînes CI/CD automatisées basées sur GitLab CI, Jenkins et des pratiques DevOps avancées ; - Déployer des projets pilotes représentatifs (use cases IA, Data, ML Ops, RPA) pour valider la plateforme ; - Documenter l'architecture cible, la roadmap de déploiement, les procédures de RUN et les processus d'onboarding ; - Industrialiser les environnements Cloud via Infrastructure as Code (Terraform, CloudFormation) et outils d'automatisation ; - Accompagner la montée en compétences des équipes internes via ateliers, formations et partage de bonnes pratiques ; - Garantir la conformité, la sécurité et la pérennité de la plateforme dans un contexte industriel exigeant. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Offre d'emploi
Product owner
Publiée le
Data analysis
1 an
40k-51k €
400-550 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Qualité des données & Gouvernance Identifier et évaluer les impacts des données manquantes, incohérentes ou de mauvaise qualité sur les opérations Intermodal, le reporting et la prise de décision. Définir, pour les données clés, des pratiques de gestion de la qualité des données , incluant : des KPI et seuils de qualité, des règles et contrôles de monitoring, des processus de traitement des anomalies et de correction, des rôles et responsabilités (responsables, contributeurs, escalades). Prioriser et formaliser les améliorations de la qualité des données sous forme de user stories dans le backlog (nouveaux contrôles, logiques d’enrichissement, workflows de correction). Veiller au respect des politiques et standards de gouvernance des données et contribuer à la clarification des rôles (data owners, data stewards). Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data : nouvelles sources, tables, métriques et vues attendues par le métier. Animer les réunions de validation avec les équipes IT et métier afin de confirmer l’alignement des livrables avec les exigences et leur bonne documentation (définitions, lignage, règles de qualité). Revoir et approuver les structures de données et transformations implémentées sur la base de critères d’acceptation clairement définis. Garantir la cohérence et la réutilisation entre les initiatives data , en évitant la duplication des jeux de données et des indicateurs. Préparation des déploiements & support (nouveau TMS et autres systèmes) Pour le projet de nouveau TMS, piloter la phase de préparation et de nettoyage des données avant chaque déploiement, avec l’appui du Référent Master Data : identifier et planifier les chargements, migrations et nettoyages de données nécessaires, coordonner les travaux avec les Product Owners, experts régionaux et équipes IT, valider la disponibilité, la complétude et l’adéquation des données pour le déploiement. Assurer le suivi des incidents liés aux données lors des phases de bascule et de démarrage, en garantissant une résolution rapide et la capitalisation pour les futurs déploiements. Mettre à jour la documentation (catalogue, flux de données, règles de qualité) afin de refléter l’ouverture de nouveaux pays, régions ou périmètres, ainsi que les évolutions des TMS et systèmes sources. Qualifications & expérience requises Diplôme de niveau Licence ou Master en Data / Informatique, Ingénierie, Supply Chain, Business ou domaine équivalent, ou expérience professionnelle équivalente. Plusieurs années d’expérience dans un ou plusieurs des rôles suivants : Data Product Owner / Product Manager, Data Analyst / Business Data Analyst, Projets BI / Data Warehouse dans un contexte opérationnel ou logistique. Expérience confirmée sur des plateformes data, datamarts ou data warehouses (recueil des besoins, modélisation, validation, déploiement). La connaissance des processus transport / logistique / intermodal constitue un atout majeur.
Mission freelance
Data / AI Engineer
Publiée le
Databricks
Git
Python
1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, Data Scientists, équipes Produit), vous interviendrez sur l’ensemble de la chaîne data & IA , de la construction des pipelines jusqu’à la mise en production et au suivi des modèles. Vos principales responsabilités : Concevoir et développer des pipelines data robustes (batch et streaming) Préparer, transformer et structurer les données pour les cas d’usage IA Entraîner, évaluer et industrialiser des modèles de Machine Learning Mettre en place le monitoring des données et des modèles Garantir la qualité, la traçabilité et la fiabilité des traitements Collaborer étroitement avec les Data Scientists et équipes produit 🛠️ Industrialisation & MLOps Mise en place des bonnes pratiques de versioning et CI/CD Industrialisation des pipelines et des modèles Contribution à la documentation technique Amélioration continue des performances et de la maintenabilité Participation aux phases de déploiement et de stabilisation
Mission freelance
Lead data en Ile de France
Publiée le
Apache Airflow
AWS Cloud
DBT
6 mois
Île-de-France, France
Télétravail partiel
NOUVELLE OPPORTUNITÉ – MISSION FREELANCE Je recrute un(e) TECH LEAD / LEAD DATA pour un client final. Démarrage : début janvier Localisation : Ile de France/ hybride Durée : mission longue, renouvelable Profil recherché Expérience confirmée en TECH LEAD / LEAD DATA => Stacks techniques obligatoires : SQL / Environnement Cloud (AWS) / Snowflake / dbt / Airflow / => BI / Dataviz (ex : Tableau ou équivalent) Solide background technique (Data / Cloud / Engineering) À l’aise avec les enjeux d’architecture, qualité et delivery Responsabilités clés Co-pilotage de l’équipe (priorisation, planification, animation) Binôme étroit avec le Product Owner Encadrement de Data Engineers (internes & externes) Mise en œuvre des bonnes pratiques (DevOps, qualité, FinOps, RUN) Cadrage, découpage et estimation des sujets Data Choix d’architectures et de modélisation Data Livraison des produits dans le respect des délais et standards Gestion des incidents, communication et escalade des risques Contribution à la dynamique collective et aux instances Data/Engineering Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner
Mission freelance
POT8833 - Un Data Analyste Confirmé sur Mer
Publiée le
Java
6 mois
280-400 €
Mer, Centre-Val de Loire
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Data Analyste Confirmé sur Mer. **Contexte :** Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. **Missions principales :** Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. **Compétences requises :** - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). **Connaissances métier :** Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. Localisation : Mer (proche d'Orleans) + Télétravail
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
Azure DevOps
Databricks
1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, BI, Sécurité, Infrastructure), vous interviendrez sur la conception, le développement et l’industrialisation des pipelines data dans un environnement Azure. Vos principales responsabilités : Concevoir des pipelines d’ ingestion et de transformation (batch et near-real-time) Développer et maintenir des flux sous Azure Data Factory Implémenter des traitements Spark via Databricks Mettre en place la qualité des données , le monitoring et la reprise sur erreur Versionner, packager et livrer via des pipelines CI/CD Collaborer avec les équipes BI, sécurité et infra 🛠️ Industrialisation & DataOps Respect des standards de développement et de nommage Mise en œuvre de pipelines CI/CD Documentation et maintien des bonnes pratiques Data Contribution à la performance et à la robustesse des traitements
Mission freelance
Business Analyst Finances/Data - Spécs. fonct. et BAU
Publiée le
12 mois
500 €
75001, Paris, Île-de-France
Business Analyst Data - Spécifications Fonctionnelles & Support Opérationnel Contexte Un acteur majeur du secteur bancaire recherche un Business Analyst spécialisé en Data pour intervenir sur la conception des spécifications fonctionnelles et le support opérationnel (Business As Usual) dans un environnement complexe lié aux paiements, clients, transactions et finance . Missions principales Recueillir et analyser les besoins métiers, proposer des simplifications et optimisations. Identifier les processus à créer ou à modifier pour répondre aux enjeux business. Rédiger des spécifications fonctionnelles détaillées . Émettre des recommandations sur la faisabilité et l'implémentation des demandes. Assurer le support des équipes techniques (PO, squads DevOps) en apportant le contexte métier. Participer à la validation des développements pour garantir la conformité avec les attentes. Intervenir sur les phases de développement, test, déploiement et post-production. Collaborer avec des interlocuteurs transverses (autres domaines et entités). Compétences métiers recherchées Paiements : flux SEPA, virements, prélèvements, gestion des moyens de paiement. Clients : gestion des données clients (KYC, onboarding, segmentation). Transactions : suivi des opérations bancaires, reporting, conformité réglementaire. Finance : notions de comptabilité bancaire, rapprochements, indicateurs financiers. Data Governance : qualité des données, intégrité, respect des standards. Compétences IT recherchées SQL : niveau confirmé (requêtes complexes, optimisation). Modélisation de données : conception et validation de modèles relationnels. Outils de gestion de données : connaissance des environnements Data Warehouse / ETL. Tests fonctionnels : validation des développements et des flux. Connaissance des architectures bancaires : systèmes transactionnels, intégration des données. Séniorité attendue Niveau : Senior / Confirmé (Business Analyst Data - Niveau 4 Proficient) Expérience : 5 à 8 ans minimum en analyse fonctionnelle et data dans des environnements complexes. Capacité à travailler en autonomie, à challenger les besoins métiers et à interagir avec des équipes techniques. Maîtrise des outils et concepts (SQL, modélisation de données, gouvernance data). Anglais professionnel (échanges à l'international) et français courant
Mission freelance
Expert Cybersécurité – GenAI / Azure
Publiée le
AI
Azure
Cybersécurité
3 ans
400-800 €
Fontenay-sous-Bois, Île-de-France
Télétravail partiel
Nous recherchons un Expert Cybersécurité spécialisé GenAI afin d’accompagner une direction sécurité sur les sujets IA, Cloud et protection des données. Assurer la cybersécurité des projets et plateformes GenAI Définir les règles de sécurité autour des technologies : Microsoft 365, Azure, Copilot, Power Platform, Azure ML Produire les dossiers de sécurité : risques, contre-mesures, blueprints, recommandations Accompagner les équipes projets et centres de compétences (architecture, normes, standards) Réaliser des revues de sécurité du code et des livrables techniques Définir des KPI de gouvernance AI et des tableaux de pilotage des risques
Offre d'emploi
Data Analyst (H/F)
Publiée le
Data analysis
Data science
30k-65k €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Votre mission En tant que Data Analyst (H/F) , vous jouerez un rôle clé dans la valorisation des données au service du métier. Vous serez responsable de l’analyse de grands volumes de données, de la production d’analyses et de reportings à forte valeur ajoutée, et de l’accompagnement des équipes métier dans l’optimisation de l’utilisation de leurs données, en lien avec les objectifs stratégiques de l’organisation. Vos responsabilités seront : Analyser de grands volumes de données afin de comprendre les enjeux métier et les besoins exprimés par les parties prenantes Traduire les besoins business en analyses de données pertinentes et exploitables Contribuer à la sélection, à l’implémentation et à l’amélioration des outils d’analyse et de reporting Produire des analyses stratégiques, des tableaux de bord et des reportings à destination du business Identifier des tendances, des anomalies et des opportunités à partir des données Présenter et vulgariser les résultats d’analyse auprès des parties prenantes métier Collaborer avec les équipes IT, data et métier afin d’assurer la qualité, la cohérence et la fiabilité des données Aider les équipes métier à mieux exploiter et optimiser l’usage de leurs données S’adapter à l’environnement spécifique et aux enjeux de nos clients
Mission freelance
Lead Analytics & Data
Publiée le
CSS
HTML
IA Générative
1 an
400-410 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Expertise GA4 et Google Tag Manager (plans de taggage, implémentation, recette, monitoring) • Analyse de la performance digitale (sites B2C, B2B, multi-marques) • Création et exploitation de dashboards PowerBI & Looker Studio • Analyses de performance ad-hoc et reporting business • Pilotage d’outils analytics tiers (ThankYou Analytics) • Coordination et intégration des tags média A/B Testing & CRO • Conception, déploiement et pilotage de roadmaps d’A/B tests • Création de tests et personnalisations via : o Éditeur WYSIWYG o JavaScript / CSS o Prompts IA • Analyse statistique, interprétation et restitution des résultats • Mise en place de modèles de suivi et de restitution des tests • Administration avancée d’outils Kameleoon / A/B Tasty • Optimisation des performances techniques et nettoyage régulier des outils CRO UX & User Intelligence • Analyse comportementale via Mouseflow / ContentSquare • Collaboration étroite avec équipes UX, SEO, Produit et CRO • Capacité à transformer les insights data en recommandations actionnables Tech & IA • Bon niveau HTML / CSS / JavaScript • Utilisation d’outils IA générative et rédaction de prompts • Intégration et interfaçage d’outils analytics avec des solutions tierces Gestion & Collaboration • Recueil et cadrage des besoins business • Coordination transverse (produit, design, tech, agences) • Capacité à accompagner et former les équipes • Forte pédagogie et sens de la communication
Offre d'emploi
Ingénieur Sécurité & Cloud GCP (H/F)
Publiée le
12 mois
45k-55k €
380-480 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 jours 👉 Contexte client : Tu rejoins la DSI d’un acteur national majeur de la grande distribution, avec un SI d’envergure : plusieurs milliers de serveurs, des applications critiques et une stratégie multi-cloud ambitieuse. Dans ce cadre, tu intègres l’équipe responsable de la sécurisation de la plateforme GCP centrale, un pilier majeur de la transformation Cloud du groupe. L’enjeu : garantir une Landing Zone sécurisée, scalable et gouvernée, tout en contribuant à un fonctionnement Agile et collectif. Tu auras pour missions de : Renforcer et faire évoluer la sécurisation de la Landing Zone GCP (IAM, réseaux, gouvernance, conformité, VPC SC). Définir et mettre en œuvre les standards de sécurité Cloud avec les architectes et les experts SecOps. Automatiser les contrôles et déploiements via Terraform, CI/CD et intégration dans les pipelines. Participer aux activités Build & Run avec une logique d’amélioration continue et de sécurisation continue. Conseiller et challenger les équipes projets sur leurs choix techniques et leurs patterns de sécurité. Accompagner la sécurisation des environnements GKE / Kubernetes (politiques, réseau, durcissement). Contribuer à la validation technique collective des décisions pour l’équipe. Monter en compétence avec les autres membres (pairing, partage, revues, co-construction). Promouvoir un mindset Agile basé sur l’entraide, la transparence, et l’amélioration continue. Stack technique : GCP – GKE / Kubernetes – Terraform – Git – Jenkins – Python – Security Command Center – Cloud Armor – IAM – VPC Service Controls – CDN/Cloudflare – Hashicorp Vault – Datadome
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Entretiens et tests techniques developpeurs Java Angular junior
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
4974 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois