Trouvez votre prochaine offre d’emploi ou de mission freelance EGEN
Votre recherche renvoie 782 résultats.
Mission freelance
Senior Python Engineer – AI Agents & Automatisation (H/F)
Tenth Revolution Group
Publiée le
API REST
Python
12 mois
350-500 €
Lille, Hauts-de-France
🎯 Contexte de la mission Dans le cadre d'une transformation IA au sein d'un grand groupe retail européen , nous recherchons un Senior Python Engineer spécialisé en développement d'agents autonomes via OpenAI Agents SDK pour concevoir et industrialiser des workflows intelligents au cœur d'un SI complexe. 🛠️ Missions principales Conception et développement d' agents autonomes multi-steps avec OpenAI Agents SDK Intégration des agents dans les APIs internes et le SI existant (ERP, PIM, outils métier) Automatisation de processus métier complexes : orchestration des workflows, gestion des erreurs, supervision des exécutions Développement de services backend robustes en Python / FastAPI Participation aux choix d'architecture IA : patterns d'agents, handoffs, outils, guardrails Rédaction de code testé, documenté et orienté production Collaboration avec les équipes produit, data et infra 🔎 Profil recherché 5+ ans d'expérience en développement Python backend Expérience concrète avec OpenAI Agents SDK ou frameworks similaires (LangChain, LangGraph, CrewAI) Maîtrise des API REST et des patterns d'intégration SI Solide culture production-ready : tests, monitoring, gestion des erreurs, observabilité À l'aise dans un environnement grand compte en transformation Autonomie, rigueur et capacité à livrer rapidement
Mission freelance
249262/Expert PowerBI
WorldWide People
Publiée le
Microsoft Power BI
6 mois
Corbeil-Essonnes, Île-de-France
Expert PowerBI Contexte de la mission Move 2 Cloud Power BI 700 développeurs, 13800 utilisateurs, 3500 rapports (2500 à migrer) Réaliser un audit technique approfondi des rapports Power BI à migrer (analyse, optimisation et recommandations) Prendre en charge l’évolution et l’optimisation des rapports ne disposant pas de data analyst référent Tester la connectivité technique des différentes briques (flux de données, ODBC, etc.) Proposer des évolutions structurantes pour la modélisation et la qualité des données Accompagner et faire monter en compétences les développeurs internes Power BI (support, partage de bonnes pratiques, formation à l’utilisation d’outils d’optimisation) Assurer l’alignement de la migration avec les standards de sécurité et de gouvernance BI du groupe Objectifs et livrables recommandations techniques (Power BI, SQL, DAX, connectivité) Rapports Power BI optimisés, prêts pour la migration vers Power BI Service Supports de formation ou de sensibilisation sur les outils d’optimisation et les bonnes pratiques Power BI (français et anglais) Documentation technique et fonctionnelle actualisée (patterns, guidelines, bonnes pratiques) Suivi des axes d’amélioration et reporting sur l’état d’avancement de la migration Compétences demandées Compétences Niveau de compétence M Confirmé Microsoft Power BI Expert Optimisation SQL Confirmé DAX Confirmé
Mission freelance
WebApp Developer React / Node.js – Intégration GenAI (H/F)
HOXTON PARTNERS
Publiée le
Agent IA
GenAI
Node.js
12 mois
Paris, France
Dans le cadre du renforcement d’une équipe digitale, nous recherchons un WebApp Developer Fullstack afin de contribuer au développement d’une application web intégrant des fonctionnalités d’intelligence artificielle générative. Le rôle du consultant est centré sur l’intégration concrète de composants GenAI (LLM, APIs IA) au sein d’une application existante, avec un impact direct sur les parcours utilisateurs. Ce poste ne correspond pas à un rôle fullstack classique : une expérience réelle en intégration d’IA générative est indispensable.
Mission freelance
DevOps Engineer Senior
Aneo
Publiée le
AWS Cloud
Kubernetes
Python
7 mois
500-680 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer, un devOps (vous) et un data Engineer. Ce qu’il vous faudra démontrer: ● Mise en œuvre de stacks data : Expérience pratique de mise en œuvre d’EMR ainsi que de clusters hors service managé EMR (donc, sur EC2, Batch, ou EKS). Expérience sur Kubernetes ● Architectures lakehouse modernes : expérience pratique avec Iceberg : recul sur l’interopérabilité multi-moteurs (Spark/PyIceberg), gestion des permissions. ● Infrastructure AWS & IaC : Solide maîtrise du déploiement de plateformes de données de qualité production sur AWS en utilisant Terraform. ● Observabilité & FinOps : Expérience dans la mise en œuvre du tagging d'allocation des coûts, la construction de tableaux de bord CloudWatch pour 1) le suivi des jobs et des coûts, et la conception de mécanismes d'application de quotas/budgets pour les plateformes de recherche multi-tenants et 2) le suivi des performances des applications Data. Compétences techniques -> Bonne maitrise et expérience de EKS -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM (gestion multi-comptes) -> Avoir déjà touché a du Iceberg est un plus -> Maitrise de Terraform -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Mission freelance
Développeur Full Stack Python / React
Codezys
Publiée le
AWS CloudFormation
CSS
Docker
12 mois
Paris, France
Contexte de la mission Nous recherchons une expertise en développement Full Stack, avec une maîtrise de Python et ReactJS, pour mener à bien un projet innovant. L’objectif est de concevoir une application web robuste, scalable et répondant aux besoins de nos utilisateurs finaux. Le candidat idéal devra être capable de développer et d’implémenter des solutions techniques efficaces, en respectant les meilleures pratiques de développement. Une collaboration étroite avec nos équipes sera essentielle pour garantir une intégration fluide des fonctionnalités. Nous valorisons une approche proactive, une capacité à résoudre les problèmes de façon créative, ainsi qu’une bonne connaissance des outils de gestion de version et des méthodologies Agile. Objectifs et livrables Backend : Maîtrise de Python 3.10+ et du framework FastAPI (async/await, dépendances, middleware). Expérience avec un ORM Python (SQLAlchemy 2.x async ou équivalent) et Alembic pour la gestion des migrations. Bonne connaissance des principes REST, de la sérialisation avec Pydantic, et de la documentation OpenAPI/Swagger. Frontend : Maîtrise de React (version 18 et plus) avec TypeScript, utilisation des hooks, du context API ou d’un gestionnaire d’état (Redux, Zustand). Expérience avec un bundler moderne (Vite) et les outils de tests frontend (Jest, React Testing Library). Sensibilité à l’UI/UX et bonne maîtrise de CSS, notamment Tailwind CSS. Base de données : Maîtrise de PostgreSQL : modélisation relationnelle, requêtes avancées, indexation, analyse de performances avec EXPLAIN ANALYZE. Connaissance de PgBouncer ou d’un pooler de connexions constitue un avantage. DevOps et outillage : Expérience avec Docker et Docker Compose pour le développement et le déploiement. Familiarité avec Git (branches, rebasing, pull requests) et avec une plateforme CI/CD (GitHub Actions, GitLab CI). Nouveautés en administration Linux et déploiement cloud (AWS, GCP ou équivalent) appréciées.
Offre d'emploi
Senior Data Engineer F/H
Atecna
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)
Lille, Hauts-de-France
Des missions data à fort impact, une communauté en pleine expansion. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Data, animée par Steve et une équipe d'experts passionné·es en pleine structuration. Une équipe qui capitalise sur ses expériences projets et partage activement ses bonnes pratiques et sa veille sur l'écosystème data. Tu es en mission chez nos clients, mais tu contribues aussi à quelque chose de plus grand : faire grandir l'expertise Data d'Atecna de l'intérieur. ⚡ Ton impact au quotidien Grâce à toi, nos clients cessent de subir leurs données et commencent à en faire un vrai levier de décision. Tu conçois et industrialises des pipelines data robustes (ETL/ELT, batch, streaming) Tu orchestres les flux avec les bons outils (Airflow, dbt…) dans des environnements cloud (GCP en priorité) Tu modélises et optimises des bases de données pour des usages métiers concrets Tu contribues à la structuration de la communauté Data Atecna : pratiques, standards, montée en compétences Bonus : tu as déjà monté une plateforme data from scratch ou tu as une appétence pour le mentorat ? Ce serait un vrai atout pour nous.
Mission freelance
Business Analyst confirmé X 2 (H/F) - 91 / 92
Mindquest
Publiée le
JIRA
Microsoft Power BI
3 mois
310-480 €
Bondoufle, Île-de-France
Mission Cadrage & Analyse * Recueillir et analyser les besoins métiers * Rédiger les spécifications fonctionnelles et détaillées * Concevoir les modèles de données et structurer les flux Data Visualisation & POC * Réaliser des maquettes dashboards (Power BI) en mode POC * Construire des visualisations claires et pertinentes pour les métiers * Exploiter les données via Databricks (requêtage, traitement simple) Suivi & Coordination * Assurer le lien entre équipes métiers et techniques * Suivre les développements et garantir la bonne compréhension des besoins * Participer aux rituels agiles (JIRA) Delivery & Run * Préparer les livrables pour les mises en production (MEP) * Participer à la mise en place des outils de supervision * Assurer le transfert de compétences vers les équipes RUN * Contribuer à la résolution d’incidents * Assurer une veille sur les outils data et BI * Proposer des améliorations continues
Mission freelance
Firmware Engineer – Embedded Systems - IDF (H/F)
EASY PARTNER
Publiée le
Cisco IOS
Hardware
IoT
6 mois
430-550 €
Paris, France
Vous interviendrez sur le développement et l’évolution de firmwares embarqués sur microcontrôleurs. Vos responsabilités incluent : Développement en C embarqué Intégration et évolution de firmwares existants Participation à la migration d’OS temps réel (RTOS) Travail sur des systèmes communicants (radio / IoT) Analyse, correction de bugs et amélioration continue Rédaction et amélioration de la documentation technique Participation aux cycles de développement en environnement Agile Environnement technique Langage : C embarqué OS : RTOS (Micrium OS / FreeRTOS) Hardware : microcontrôleurs / systèmes embarqués Communication : radio / IoT
Mission freelance
Freelance – GenAI Engineer & Full-Stack Developer H/F
Comet
Publiée le
BigQuery
GenAI
Large Language Model (LLM)
5 mois
400-600 €
Île-de-France, France
Contexte de la mission : Dans le cadre d’un projet ambitieux pour un grand groupe international, nous recherchons un profil hybride GenAI Engineer + Développeur Full-Stack . L’objectif est de concevoir et déployer un workflow agentique (multi-agents) capable d’automatiser des stratégies SEO et de contenu à grande échelle. 💡 Exemple concret : Optimiser automatiquement les performances SEO d’une page produit actuellement positionnée en 8-9e position, afin d’améliorer son ranking via : l’optimisation sémantique, la création de liens internes, l’expansion des territoires de mots-clés. Objectifs : Automatiser la génération et l’optimisation de contenu SEO via des agents IA Structurer et exploiter des datasets existants à grande échelle Déployer la solution sur 50 pays et 32 marques Industrialiser les workflows avec une approche agnostique et scalable Architecture du projet : Le projet s’articule autour de 3 briques principales : Data Layer : ingestion et structuration des données dans BigQuery Agentic Layer : conception de workflows multi-agents (GenAI, prompt engineering avancé) Activation Layer : injection des outputs dans deux SaaS : CLS Box SiezBot Le site est scrappé mensuellement et dispose déjà d’un volume de données conséquent.
Offre d'emploi
Quality Engineer F/H
Atecna
Publiée le
Automatisation
Cypress
JIRA
Lille, Hauts-de-France
Des projets qualité à fort enjeu, une communauté en pleine structuration. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Qualité, animée par Ludivine et une équipe d'une vingtaine d'experts passionné·es : testeurs manuels, automaticiens et leads QA. Tu interviens en mission chez nos clients, mais tu contribues aussi à quelque chose de plus grand : faire grandir l'expertise Qualité d'Atecna de l'intérieur, en partageant tes bonnes pratiques, ta veille et tes retours d'expérience avec le collectif ⚡ Ton impact au quotidien Tu interviens sur des projets clients dans des environnements web & mobile, auprès de clients de tailles et de secteurs variés. Tu conçois et automatises des scénarios de test as code (Cypress, Playwright, Espresso ou équivalent) pour garantir la qualité des livrables clients Tu gères et priorises les anomalies via les outils adaptés (Jira, Redmine, Mantis) et tu assures un reporting clair et exploitable (Data Studio, X-Ray) Tu collabores étroitement avec les équipes de développement, produit et métier pour intégrer la qualité au cœur du cycle de delivery Tu contribues à la structuration des pratiques QA au sein de la communauté Qualité Atecna : standards, outillage, montée en compétences Tu te tiens en veille active sur les évolutions de l'écosystème test et tu partages tes apprentissages (meetups, articles, retours d'expérience) Tu es sensible aux enjeux d'accessibilité numérique et tu les intègres dans tes approches de test quand le contexte client s'y prête
Offre d'emploi
Data Engineer / Data Scientist
ONSPARK
Publiée le
Cloudera
Hadoop
Python
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Engineer / Data Scientist pour accompagner nos clients grands comptes. Vous interviendrez au sein d'un Pôle Data mature, exploitant une plateforme Big Data on-premise (Cloudera Data Platform Private Cloud) et un environnement de Data Science (Cloudera Machine Learning). Vos missions s'articulent autour de l'ingestion de données massives issues de multiples partenaires institutionnels, de l'accompagnement des équipes métier et de la mise en œuvre de cas d'usage data avancés (data science, IA, machine learning, NLP, dataviz). Responsabilités Collecte des données Développer, industrialiser et maintenir des pipelines d'ingestion de sources de données internes et externes Participer à la préparation et au suivi de la qualité des données Identifier des opportunités d'utilisation de nouvelles données Expertise & accompagnement métier Accompagner les chargés d'études dans leur utilisation de la plateforme de données (POC/POV, support, expertise, formation) Contribuer et maintenir en condition opérationnelle les cas d'usage sur la plateforme (simulateurs, prévisions, indicateurs, data science, IA) Valoriser et exposer les résultats via des outils de visualisation ou de micro-services Sécuriser & MCO Comprendre les contraintes des équipes supports (sécurité, infrastructure, RGPD) Contribuer aux bonnes pratiques de développement, standardisation des livrables, amélioration continue
Offre d'emploi
Senior Data Engineer Big Data
VISIAN
Publiée le
AWS Cloud
Python
1 an
Île-de-France, France
Contexte Dans le cadre de son plan de transformation Data, un grand groupe média poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing. Pour répondre à cet enjeu, ce groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI , ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour , dont une part majoritaire en temps réel. Les cas d'usage couverts sont variés, parmi lesquels : IA pour recommandation des programmes et des offres Plateforme agentique customer-facing Gender Equality Monitoring Feature Store Modernisation des flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice Le consultant aura pour mission de réaliser des développements avancés sur le socle des données Big Data pour la mise en place des usecases IA. Cet environnement Big Data, fortement orienté Streaming et IA, traite quotidiennement plus de 100 To de données . Le consultant doit maîtriser les architectures de Streaming Data, AWS (notamment Lambda, Batch, Step Function, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB, etc.), Airflow, Scala, Spark, SQL, Snowflake, GitLab CI/CD, Terraform. Missions Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Participer activement à l'évolution continue de la plateforme IA
Mission freelance
FICO/PS
KN CONSULTING
Publiée le
SAP FICO
6 mois
400-800 €
Essonne, France
🔎 Mission – Consultant SAP FI/CO/PS (post-acquisition) Dans le cadre d’un projet de séparation et intégration de SI après acquisition , nous recherchons un consultant SAP senior pour intervenir sur un programme critique de type Clone & Clean Actuation . Le consultant interviendra sur la reprise de connaissance (Knowledge Transfer) , l’analyse de l’existant SAP en sandbox, la documentation des processus, ainsi que la préparation et exécution des phases de tests (SIT / UAT), cutover et hypercare. 🎯 Missions principales : Animation des ateliers de transfert de connaissance avec le vendeur et le business Analyse des customisations SAP et des flux existants Rédaction de la documentation fonctionnelle et technique Préparation et exécution des tests d’intégration (SIT) et UAT Support au cutover et mise en production Hypercare et support post go-live (N2/N3) Contribution au transfert vers la TMA 🧠 Expertise requise : SAP FI / CO / PS (expertise confirmée 10+ ans idéalement) Bonne maîtrise des interfaces : IDoc, BAPI, RFC, API, EDI Capacité à analyser des systèmes fortement customisés Rédaction de specs fonctionnelles et techniques Anglais professionnel Forte autonomie et capacité à interagir avec métiers + IT 🏠 Télétravail : 2 jours / semaine 📅 Démarrage : à définir / projet long terme (jusqu’à 2027)
Offre d'emploi
Expert IA Gen
Deodis
Publiée le
Agile Scrum
AWS Cloud
Kubernetes
1 an
60k-65k €
550-600 €
Montpellier, Occitanie
La mission s'inscrit dans un contexte de développement d'une solution maison accès IA GEN. Les attentes sont : Expertise LLM Maison Fabrication d'un module IA GEN (RAG, génération PPT, Webgrounding) Développement Python Suivi des expérimentations, produit socle cognitif et Chat LLM maison L'ingénieur IA interviendra sur les différentes composantes du projet. Ses principales tâches sont : Développement Mise en marche d'évolutions à valeur ajouté de la solution maison Conseil Urbanisation produit Fabrication
Mission freelance
249262/Expert PowerBI, Move 2 Cloud
WorldWide People
Publiée le
Microsoft Power BI
6 mois
Corbeil-Essonnes, Île-de-France
Expert PowerBI Move 2 Cloud Contexte de la mission Move 2 Cloud Power BI 700 développeurs, 13800 utilisateurs, 3500 rapports (2500 à migrer) Réaliser un audit technique approfondi des rapports Power BI à migrer (analyse, optimisation et recommandations) Prendre en charge l’évolution et l’optimisation des rapports ne disposant pas de data analyst référent Tester la connectivité technique des différentes briques (flux de données, ODBC, etc.) Proposer des évolutions structurantes pour la modélisation et la qualité des données Accompagner et faire monter en compétences les développeurs internes Power BI (support, partage de bonnes pratiques, formation à l’utilisation d’outils d’optimisation) Assurer l’alignement de la migration avec les standards de sécurité et de gouvernance BI du groupe Objectifs et livrables recommandations techniques (Power BI, SQL, DAX, connectivité) Rapports Power BI optimisés, prêts pour la migration vers Power BI Service Supports de formation ou de sensibilisation sur les outils d’optimisation et les bonnes pratiques Power BI (français et anglais) Documentation technique et fonctionnelle actualisée (patterns, guidelines, bonnes pratiques) Suivi des axes d’amélioration et reporting sur l’état d’avancement de la migration Compétences demandéesCompétences Niveau de compétence Move to Cloud Confirmé Microsoft Power BI Expert Optimisation SQL Confirmé DAX Confirmé
Mission freelance
Chef de projets Événements – Médias
Cherry Pick
Publiée le
HTML5
Marketing
Responsive Web Design
12 mois
300-350 €
Paris, France
Missions principales Organisation et coordination de la distribution d’événements d’actualité (sport, culture, info) sur les environnements numériques, sites, applications et pages sociales. Mise en place et suivi des comités de projet : rédaction des comptes rendus, listes d’actions et points d’alerte. Coordination des parties prenantes internes et externes : équipes éditoriales, produit, techniques, marketing, data, partenaires de distribution. Mutualisation des informations et bonnes pratiques avec les rédactions et équipes produit. Proposition de dispositifs éditoriaux adaptés à chaque plateforme (extraits courts, directs, vidéos longues…). Travail avec journalistes, community managers, graphistes, éditeurs vidéo pour livrables : expression de besoins, spécifications éditoriales, visuels, documents de recette, planning et comptes rendus. Production de bilans, présentations, procédures et post-mortem. Veille éditoriale, technologique et benchmark. Compétences techniques et expertise Requises : Gestion de projets numériques multi-support dans les médias et l’information (références de réalisations attendues). Maîtrise de la formalisation et production des documents nécessaires à la coordination d’événements numériques. Connaissance approfondie des produits numériques et de l’amélioration fonctionnelle continue. Gestion de projets transverses avec coordination éditoriale et technique. Capacités de synthèse, médiation, communication et résolution de problèmes. Expertise réseaux sociaux et dispositifs d’acquisition de trafic. Connaissance du secteur de l’actualité générale, sportive et culturelle. Appréciées : Technologies web : HTML5, responsive design, web app, ergonomie mobile. Méthodologies Agile pour le design et le développement de produits numériques. Webmarketing et SEO. Pack Office et analyse de données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Facturation electronique 2026
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- Consultante freelance disponible | Pilotage de projets IT & conduite du changement : prête pour votre prochaine mission !
- EURL au régime micro-entreprise ?
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Je galère à trouver une mission CDP sénior
782 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois