L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 110 résultats.
Mission freelance
Data Engineer - Spark Hadoop - 2 jours TT - Service Public
Publiée le
Apache Spark
Hadoop
6 mois
450-500 €
La Défense, Île-de-France
Télétravail partiel
Concevoir, développer et maintenir des pipelines de données robustes et scalables (batch et streaming). Participer à la mise en place et à l’optimisation de la plateforme Big Data (Hadoop/Spark). Intégrer, transformer et nettoyer des données issues de différentes sources (API, bases relationnelles, fichiers plats, etc.). Collaborer étroitement avec les Data Scientists et Data Analysts pour la préparation et la mise à disposition des datasets. Contribuer aux bonnes pratiques de développement, d’automatisation (CI/CD), et de gestion de la qualité des données. Assurer la documentation technique et la maintenance des flux existants. Participer à la montée en compétences de l’équipe interne sur les outils Big Data.
Mission freelance
Lead Data Engineer Streaming
Publiée le
Apache Kafka
Apache Spark
12 mois
700-850 €
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du programme de modernisation de la plateforme data du Groupe, vous rejoignez la direction Data Engineering de la DSI Banque de Proximité et Assurance (BPA) en tant que Lead Data Engineer spécialisé en streaming. Vous serez responsable de la conception, de l’industrialisation et de l’optimisation des pipelines de données temps réel, en lien avec les enjeux métiers autour de la fraude, de la connaissance client, et de la supervision des parcours digitaux. Vous encadrerez une équipe de 3 à 5 data engineers et collaborerez étroitement avec les architectes, les data scientists et les équipes cloud. Stack technique & environnement Streaming & ingestion : Apache Kafka (Confluent), Kafka Connect, REST Proxy Traitement temps réel : Apache Spark Structured Streaming, Apache Flink (POC en cours) Orchestration : StreamSets, Airflow Cloud & stockage : Google Cloud Platform (BigQuery, Cloud Storage), Hadoop (legacy) Langages : Python, Scala, SQL CI/CD & Infra : GitLab CI, Terraform, Docker, Kubernetes (GKE) Monitoring : Grafana, Prometheus, Elastic Stack
Mission freelance
Data Engineer AWS
Publiée le
AWS Cloud
PySpark
Python
12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Offre d'emploi
Data Ops
Publiée le
DevOps
Python
40k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Offre d'emploi
Développeur Python / Django
Publiée le
Django
Python
40k-45k €
Paris, France
Descriptif du poste La prestation se fera au sein d'une équipe IT dédiée. Le prestataire interviendra comme développeur senior sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix sur le marché de l'électricité Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Le développement de correctifs et d'évolutions sur l'ensemble du périmètre • Définition de nouvelles architectures et implémentation de nouvelles solutions • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Le support technique et accompagnement des utilisateurs (analystes, data scientists...)
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Offre d'emploi
Data Engineer (Bordeaux)
Publiée le
BI
Python
Snowflake
3 mois
40k-48k €
100-370 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data
Mission freelance
Data Engineer
Publiée le
Apache Airflow
AWS Cloud
Dataiku
12 mois
Paris, France
Contexte : Notre client, un grand groupe du secteur retail, déploie une plateforme Dataiku pour industrialiser la préparation et le scoring de ses modèles analytiques. Missions : Concevoir et maintenir des pipelines Dataiku Automatiser les processus de traitement et de scoring des données Garantir la qualité et la traçabilité des datasets Travailler en lien étroit avec les Data Scientists et les équipes métier Stack technique : Dataiku, Python, SQL, Airflow, Git, Docker, AWS S3 Profil recherché : Expérience confirmée sur Dataiku (projets réels en prod) Bon niveau en Python / SQL Capacité à travailler en mode agile, avec un fort sens de la communication
Mission freelance
Expert Dév Python &IA ML- MLOps Sparrow
Publiée le
Amazon S3
API
API Platform
12 mois
550-660 €
Île-de-France, France
Télétravail partiel
Objectif : industrialiser les projets IA du développement à la mise en production via une approche MLOps complète et intégrée . ⚙️ Composants principaux Sparrow Studio Environnement code-first pour data scientists / analysts Stack : Go , Kubernetes, ressources dynamiques GPU/CPU Sparrow Serving Déploiement de modèles IA (API / batch) MLOps, monitoring, compliance Stack : Go , Kubernetes-native Sparrow Flow (poste concerné) Librairie propriétaire Python (cœur du framework MLOps Sparrow) Automatisation complète des pipelines IA (Docker, API, packaging, compliance, déploiement) Niveau technique avancé – forte exigence en Python backend Sparrow Academy Documentation, tutoriels, support utilisateurs Sparrow 🧠 Missions principales Prendre l’ ownership technique de la librairie Python Sparrow Flow Concevoir, maintenir et faire évoluer le framework MLOps interne Garantir la qualité, la performance et la scalabilité du code Participer à la définition des orientations techniques avec les leads Collaborer avec les équipes architecture, infrastructure et data science Contribuer à la documentation technique (Sparrow Academy) 💻 Environnement technique Langages : Python → Sparrow Flow Go → Sparrow Serving & Studio Terraform → Infrastructure Infra & Cloud : Cloud privé on-premise Kubernetes (déploiement & orchestration) S3 / MinIO / PX (Portworx) Argo, ArgoCD, Argo Workflows (CI/CD) Autres outils : Git, Artifactory, Model Registry Prometheus, Kibana PostgreSQL, MongoDB
Mission freelance
Data Engineer Databricks (F/H)
Publiée le
Databricks
1 an
500-550 €
Saint-Denis, Île-de-France
Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks. Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.). Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows). Optimiser les performances des jobs Spark et la consommation des clusters. Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse). Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage). Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data. Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).
Mission freelance
SRE/Ops Kubernetes & Cloud Privé
Publiée le
Argo CD
Cloud privé
Kubernetes
12 mois
550-630 €
Levallois-Perret, Île-de-France
Télétravail partiel
Un grand acteur du secteur bancaire développe et opère en interne une plateforme data et IA destinée à accompagner les équipes de data scientists et d’analystes dans tout le cycle de vie de leurs projets : du développement à l’industrialisation en production. Cette plateforme s’appuie sur un cloud privé on-premise et sur une stack technologique moderne et open source , fortement orientée Kubernetes . L’objectif est d’offrir un environnement stable, automatisé et performant pour la mise à disposition d’environnements de développement, le déploiement de modèles, et leur supervision en production. Dans ce cadre, l’équipe recherche un profil SRE / Ops expérimenté pour renforcer la fiabilité, la supervision et l’automatisation de la plateforme, en interaction directe avec les équipes de développement, d’architecture et d’infrastructure. Missions principales: En tant que Site Reliability Engineer / Ops , vous interviendrez au cœur de la plateforme et participerez à son évolution technique. Vos responsabilités clés : Administration et exploitation Gérer et maintenir les clusters Kubernetes on-premise Superviser les déploiements des applications et services de la plateforme Garantir la stabilité, la performance et la disponibilité des environnements Automatisation et industrialisation Développer et maintenir les pipelines d’automatisation via Terraform , ArgoCD et Argo Workflows Contribuer à la mise en œuvre et à l’amélioration des processus CI/CD Participer à la conception d’une infrastructure fiable, scalable et résiliente Supervision et observabilité Mettre en place et administrer les outils de monitoring et de logging (Prometheus, Grafana, Kibana) Créer des tableaux de bord pour suivre les performances et anticiper les dérives (drift, charge, erreurs) Participer aux actions d’amélioration continue (tests de charge, alerting, performance tuning) Support et collaboration Travailler en proximité avec les développeurs (Python, Go) pour optimiser les déploiements et intégrations Être le point de contact technique sur les sujets d’infrastructure et de fiabilité Contribuer à la définition des bonnes pratiques DevOps et SRE
Offre d'emploi
Data Engineer
Publiée le
Azure Data Factory
Big Data
1 an
49k-55k €
400-550 €
Île-de-France, France
Contexte : Dans le cadre d’un vaste programme de transformation Data, nous recherchons un Data Engineer pour rejoindre une équipe en pleine évolution. Le projet vise à moderniser les infrastructures de données, à industrialiser les flux et à renforcer la valorisation de la donnée au service des métiers (pilotage, relation client, performance opérationnelle, IA et analytique). L’environnement de travail est stimulant, avec une forte culture d’innovation autour du cloud, du Big Data et de l’intelligence artificielle. L’équipe Data est composée de profils complémentaires : data engineers, data analysts, data scientists et experts gouvernance.
Mission freelance
Data Engineer - Gen AI - Finance (h/f)
Publiée le
12 mois
600-700 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un ingénieur de données expérimenté, spécialisé dans l'IA générique et Python ? emagine vous offre l'opportunité de rejoindre une équipe dirigée par emagine qui fournit des solutions basées sur l'IA dans un environnement bancaire international. Are you an experienced Data Engineer with expertise in Gen AI and Python? emagine has an opportunity for you to join an emagine-led team delivering AI-driven solutions within a global banking environment. You will play a key role in building on-prem AI tools that process and model large volumes of unstructured data from sources such as legal documents and financial policies. This is a hands-on role requiring strong technical skills and the ability to design efficient data pipelines for Gen AI applications. Main Responsibilities Design and implement data ingestion pipelines for structured and unstructured data. Apply techniques such as vectorization and chunking to prepare data for LLM-based solutions. Develop Python-based tools for large-scale data processing and storage manipulation. Collaborate with Data Scientists and Business Analysts to ensure data readiness for AI models. Key Requirements 5+ years of experience as a Data Engineer in complex environments. Strong expertise in Python and experience with data modelling for AI applications. Familiarity with vectorization, chunking, and handling large datasets. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Fluent in English Nice to Have Exposure to legal or procedure-focused applications. Other Details: This position is Hybrid – on-site minimum 3 days per week in Paris 8th arrondissement . Apply with your latest CV or reach out to Brendan to find out more.
Mission freelance
Développeur Python Expert – IA
Publiée le
IA
MLOps
Python
12 mois
600-650 €
Paris, France
Télétravail partiel
Développeur Python Expert – Environnement MLOps & Cloud Privé (secteur bancaire) Un grand acteur du secteur bancaire développe et opère en interne une plateforme d’industrialisation de projets data et IA , destinée à accompagner les équipes de data scientists et d’analystes tout au long du cycle de vie de leurs modèles : du développement à la mise en production. Cette solution s’appuie sur un cloud privé on-premise , une stack technologique moderne et open source , et une approche MLOps complète (déploiement, packaging, monitoring, compliance). L’objectif est d’offrir une infrastructure fiable, automatisée et scalable , reposant sur des composants développés en Python, Go et Kubernetes . Dans ce contexte, l’équipe recherche un Développeur Python expérimenté pour prendre en main la librairie interne d’industrialisation des projets IA , pilier central de la solution. Missions principales En tant que Développeur Python Expert , vous aurez un rôle clé dans la conception, l’évolution et la maintenance de la librairie interne dédiée à l’industrialisation des projets IA. Développement & conception Développer et maintenir une librairie Python backend hautement technique, utilisée en production par les équipes data et IA. Concevoir et optimiser les pipelines d’automatisation : packaging, création de conteneurs Docker, génération d’API, déploiements expérimentaux. Intégrer des mécanismes de validation, compliance et monitoring pour assurer la robustesse des déploiements. Contribuer à la qualité du code , aux tests unitaires et à la documentation technique. Architecture & intégration Participer à la conception de l’architecture technique autour de la librairie. Travailler sur l’intégration avec l’écosystème CI/CD (ArgoCD, Argo Workflows) et les environnements Kubernetes on-premise. Collaborer avec les développeurs Go et les équipes MLOps pour garantir la cohérence globale de la plateforme. Expertise & amélioration continue Être référent technique sur les choix d’implémentation et d’architecture Python. Assurer la veille technologique sur les bonnes pratiques backend et MLOps. Participer à l’amélioration continue de la performance, de la maintenabilité et de la fiabilité du framework.
Mission freelance
Développeur Full-Stack Python / Angular
Publiée le
Angular
Django
Flask
1 an
400-660 €
Île-de-France, France
Télétravail partiel
Contexte : Le poste s’inscrit au sein d’une équipe de développement transverse, rattachée à la direction des solutions à livraison rapide. Cette équipe de 20 personnes regroupe des Data Engineers, Data Scientists et Développeurs Full-Stack. Elle conçoit et met en œuvre des outils innovants en lien direct avec les métiers, dans un environnement dynamique et collaboratif. L’équipe a pour mission de : Développer des outils tactiques en proximité directe avec les métiers. Accompagner l’industrialisation de ces solutions au sein des environnements applicatifs existants. Soutenir les métiers dans la mise en œuvre de cas d’usage d’IA générative. Réaliser une veille technologique et des études d’opportunité pour proposer des solutions innovantes. L’ambiance d’équipe est un point fort : jeune, proactive et solidaire. Le profil recherché devra être à la fois techniquement compétent et doté d’un excellent relationnel (communication, esprit d’équipe, autonomie, curiosité et force de proposition). Mission principale : Concevoir et développer des applications web complètes (frontend et backend) permettant : L’exploitation de données complexes au travers d’interfaces ergonomiques. La réalisation d’applications « commando » destinées à répondre rapidement aux besoins métiers. Responsabilités : Concevoir et développer des applications web avec Python (Django, Flask) côté backend. Créer des interfaces dynamiques et réactives avec Angular (ou équivalent React/Vue.js). Intégrer et consommer des API RESTful entre le front et le back. Collaborer avec les équipes design et produit pour une expérience utilisateur fluide. Garantir la qualité du code (tests unitaires, fonctionnels, revues de code). Participer à la documentation et à la mise en place de bonnes pratiques de développement. Interagir directement avec les métiers pour recueillir, comprendre et challenger les besoins.
Offre d'emploi
Ingénieur en système embarqué H/F
Publiée le
28k-32k €
Bidart, Nouvelle-Aquitaine
Télétravail partiel
Vous intégrerez une structure à taille humaine, spécialisée dans le développement de systèmes cyberphysiques intelligents déployés dans des environnements industriels, naturels ou mobiles. Vos missions : Réaliser une veille technologique et proposer des solutions créatives Concevoir et développer des prototypes de systèmes embarqués Collaborer avec des data scientists pour optimiser l'architecture des traitements Rédiger du code propre, structuré et performant Maintenir et faire évoluer les systèmes existants vers l'industrialisation Contribuer à la documentation technique et à la diffusion des connaissances
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Auto-entrepreneur et LMNP au réel
- Quitter l'IT
- Le marché du freelancing et de l’IT en 2026 : à quoi s’attendre ?
- SASU est ce que le pv d'ag existe ou seulement décision de l'associ unique?
- Déclaration de Malt et rectification abusive de l'URSSAF
- Pourcentage total de détention du capital à l'INPI= nue-propriété
110 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois