Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 393 résultats.
Freelance

Mission freelance
Data analyst

Publiée le
SQL

12 mois
400-500 €
Paris, France
Télétravail partiel
Cherry pick est à la recherche d'un Data analyst pour l'un de ses clients dans le secteur de l'énergie. 🎯 Objectifs de la mission Travailler en collaboration directe avec le Data Lead TGP , les BPO , les Data Domain Owners et les équipes achats afin de : Développer et maintenir le backlog des cas d’usage Data Quality . Paramétrer l’outil Tale of Data pour identifier les anomalies, rapprocher les données provenant de différents systèmes achats et produire les outputs attendus. Suivre et améliorer en continu le niveau de qualité des données à l’aide d’indicateurs fiables et automatisés. Accompagner les équipes dans la conduite et le pilotage des campagnes de nettoyage . Être force de proposition sur l’amélioration des processus, formats et traitements des données. 📌 Responsabilités & Livrables attendus 1. Gestion des cas d’usage Data Quality Identifier et co-construire les cas d’usage avec les BPO et Data Domain Owners. Maintenir et prioriser le backlog (nouveaux besoins, évolutions, corrections). 2. Paramétrage de l’outil Tale of Data Configurer les règles de contrôle qualité (contrôles automatiques, seuils, business rules). Réaliser les rapprochements de données entre les différents outils achats. Produire les livrables opérationnels : listes d’erreurs, fichiers de référentiels, exports de données, emails d’alertes automatiques. 3. Production de KPI Data Quality Définir et documenter les indicateurs de qualité par périmètre. Construire des dashboards permettant le suivi régulier de la qualité des données. 4. Support aux campagnes de nettoyage Préparation et communication des jeux de données à nettoyer. Suivi de l’avancement et relances auprès des équipes concernées. Consolidation des résultats et reporting. 5. Amélioration continue & Expertise Recommander des améliorations sur la structuration des données, les processus de traitement ou la gouvernance. Proposer des optimisations sur l’utilisation de l’outil Tale of Data.
Freelance

Mission freelance
Architecte Cloud & On-Premises (anglophone) – Expertise FinOps

Publiée le
Architecture
Azure
Cloud

12 mois
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Architecte Cloud & On-Premises anglophone , intervenant sur l’optimisation des coûts d’un environnement multi-cloud et d’infrastructures on-premises. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/FIN/4975 dans l’objet de votre message La prestation consiste à optimiser les coûts Cloud et On-Premises dans un environnement multi-cloud global, en produisant des rapports détaillés, en mettant en œuvre la gouvernance, en soutenant les équipes internes et en fournissant des recommandations structurées. . Gouvernance Cloud & On-Premises Contribuer à la définition de la gouvernance pour les environnements Cloud et On-Premises. Participer à la mise en œuvre opérationnelle de cette gouvernance. 2. Production et amélioration des rapports Cloud & On-Premises Produire des rapports pertinents sur la consommation et les coûts Cloud & On-Premises. Améliorer en continu ces rapports pour les rendre exploitables par le management. Fournir des rapports permettant de piloter la conformité, la consommation et les coûts. 3. Collaboration avec des équipes transverses globales Collaborer avec des équipes multifonctionnelles basées dans plusieurs pays. Comprendre leurs besoins et contribuer à l’analyse des données. Établir des partenariats de travail permettant d’atteindre des résultats FinOps tangibles. 4. Support aux équipes Infrastructure & Operations (I&O) Accompagner les équipes I&O dans la définition d’objectifs et de KPI pertinents. Participer à la récupération, structuration et modélisation des données nécessaires au pilotage des coûts. 5. Cartographie des flux de données Cartographier, avec les équipes I&O, les flux de données relatifs aux environnements Cloud et On-Premises. Aider à construire un modèle de données supportant les travaux FinOps. 6. Analyse et prévision des coûts d’hébergement Analyser les coûts d’hébergement Cloud & On-Premises. Élaborer des prévisions (forecast) pour anticiper l'évolution des dépenses. 7. Recommandations d’optimisation Formuler clairement des recommandations d’optimisation des coûts. Accompagner et suivre la mise en œuvre de ces recommandations. 8. Appui à la prise de décision via les données Utiliser des outils et technologies permettant des décisions data-driven. Contribuer à l’amélioration de la capacité analytique et du reporting FinOps. 9. Contribution aux projets et programmes Aider projets et programmes à réaliser des estimations de coûts. Construire et formaliser des modèles de coûts et de financement. Contribuer à l’élaboration de business cases internes.
Freelance

Mission freelance
Senior Data Engineer

Publiée le
Google Cloud Platform (GCP)
Python
Terraform

210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Freelance
CDI

Offre d'emploi
MOA – Application ATHENES Bilingue sur Paris

Publiée le
CSS
Data Lake
Java

3 mois
Paris, France
Télétravail partiel
Je recherche pour un de mes clients un MOA – Application ATHENES sur Paris Pour l’application ATHENES le périmètre couvre : application est dédiée à l'activité de gestion des participations o La prise en charge des éléments du backlog d’ATHENES : Backlog éditeur Interfaçage CDC (flux) DataLake / Tableau Développement de Proximité Bureautique, etc. au travers de la maintenance corrective et évolutive : expression des besoins, analyse, configuration, recette o Le support utilisateur o La gestion des incidents de production, en relation avec les équipes métiers o La documentation des points ci-dessus o Suivi de KPI éditeurs o Relation avec l’éditeur, comitologie en interne et avec l’éditeur Compétences • Forte expérience en maîtrise d’ouvrage et en support sur les métiers liés au franchissement de seuil (seuils, types, déclarations, etc.) et OPA. • Connaissance approfondie de l’outil Signal de CSS/Confluence (paramétrages, configuration des règles d’alertes, ETL Studio, etc.) • Connaissance approfondie sur l’implémentation de Signal chez d’autres clients • Connaissance des règles de franchissements de seuils règlementaires et statutaires sur plusieurs juridictions (EU, USA, G20), OPA, règles sur l’actionnariat (loi Florange) • Connaissance approfondie de l’anglais (éditeur anglophone) • Connaissance approfondie du langage SQL. • Connaissance approfondie d’Excel (VBA, TCD, etc.) et la programmation (Python). • Connaissance des marchés et des instruments financiers • Connaissance des plateformes (Refinitiv) Démarrage: ASAP Durée Longue
Freelance

Mission freelance
Senior Data Scientist Python / ML / LLM / Agentic AI

Publiée le
Large Language Model (LLM)
MLOps
Python

12 mois
400-550 €
Paris, France
Télétravail partiel
Contexte Développement de solutions IA avancées pour le projet du client Missions Concevoir, entraîner et optimiser des modèles ML et LLM Implémenter des architectures Agentic AI Industrialiser les modèles (MLOps, monitoring, performance) Collaborer avec les équipes produit et tech Garantir la robustesse et l’éthique des modèles en production Profil recherché 10+ ans d’expérience en data science Excellente maîtrise de Python et des frameworks ML Expérience réelle de LLM et Agentic AI en production Forte capacité d’abstraction et de vulgarisation Experience en IA / AI en production ANGLAIS ASAP
Freelance
CDI

Offre d'emploi
Chef de projet Data

Publiée le
Business Object
Microsoft Power BI
Shell

1 an
Paris, France
Pour un client du secteur bancaire , nous recherchons un Chef de Projet Data avec 8 à 10 ans d’expérience . Démarrage ASAP – URGENT Compétences clés Connaissance du domaine Finance Expérience bancaire Power BI, Business Objects, Shell Missions principales Pilotage et coordination de projets Data / BI Encadrement et coordination d’équipes techniques Recueil et analyse des besoins métiers Suivi des développements, gestion des risques, planning et reporting Animation des comités et communication projet Garantie de la qualité des livrables (SFG/SFD, tests, MEP, documentation)
Freelance

Mission freelance
EXPERT IAM / CLOUD / DATA

Publiée le
Cloud
Cryptographie
IAM

6 mois
490-700 €
Paris, France
🎯 Missions principales : - Capacité à travailler sur les orientations et directions stratégiques du programme cyber, à comprendre les enjeux et la structure du programme, et à proposer des améliorations continues - Rédaction et/ou révision de thématiques opérationnelles du Group Cyber Framework (exigences cyber sur 25 thématiques applicables à toutes les entités du groupe) - Identification des risques cyber, les objectifs et les preuves associées aux exigences cyber sécurité (les preuves à collecter parles entités afin de vérifier qu'elles ont bien implémentées ces exigences - Expertise sur les thématiques typées "Cryptography" "network security" "Data Security" , "AM" and « secure configuration » - Animation des workshops avec les experts de ces sujets cyber, les équipes de productions et les entités afin d'identifier la faisabilité des exigences et les aspects opérationnels associés - Animation des espaces de partage des livrables et des forums mis en place à cet effet.
Freelance

Mission freelance
Consultant Data Snowflake SQL

Publiée le
Snowflake
SQL

12 mois
Paris, France
Télétravail partiel
Analyse de la données Le consultant freelance accompagnera la mise en place, l’optimisation et l’automatisation des traitements de données sur Snowflake et Databricks, ainsi que le développement de scripts pour améliorer les processus internes. Missions principales Analyse de la donnée Analyser les besoins métiers et produire des jeux de données fiables et pertinents. Concevoir, optimiser et maintenir des requêtes SQL et objets Snowflake (tables, vues, pipelines). Développer des transformations et workflows sur Databricks Créer et maintenir des scripts d’automatisation (Python, PowerShell, .NET selon besoins). Documenter les traitements et assurer un niveau de qualité élevé des données. Collaborer avec les équipes internes pour faciliter l’utilisation et la compréhension des datasets.
Freelance

Mission freelance
Consultant SIRH Data / Chef de Projet MOA - Paris (H/F)

Publiée le
Microsoft Fabric
MOA
PLEIADES

6 mois
630-700 €
Paris, France
Télétravail partiel
Un grand groupe a lancé une stratégie Data (Microsoft Fabric, Power BI, Data Lake). Le domaine RH reste en retard : données silotées, dépendance à une ressource unique, enjeux importants liés à la masse salariale. Missions Recueillir et formaliser les besoins métiers RH (indicateurs : effectifs, absentéisme, turnover, masse salariale…). Rédiger les spécifications fonctionnelles (Pléiades, Horoquartz) et structurer un dictionnaire de données RH. Collaborer avec les équipes Data/BI pour assurer qualité et cohérence des flux (Microsoft Fabric, Power BI). Contribuer à la gouvernance et à la mise à disposition des données RH.
Freelance

Mission freelance
Business Analyst Finances/Data - Spécs. fonct. et BAU

Publiée le

12 mois
500 €
75001, Paris, Île-de-France
Business Analyst Data - Spécifications Fonctionnelles & Support Opérationnel Contexte Un acteur majeur du secteur bancaire recherche un Business Analyst spécialisé en Data pour intervenir sur la conception des spécifications fonctionnelles et le support opérationnel (Business As Usual) dans un environnement complexe lié aux paiements, clients, transactions et finance . Missions principales Recueillir et analyser les besoins métiers, proposer des simplifications et optimisations. Identifier les processus à créer ou à modifier pour répondre aux enjeux business. Rédiger des spécifications fonctionnelles détaillées . Émettre des recommandations sur la faisabilité et l'implémentation des demandes. Assurer le support des équipes techniques (PO, squads DevOps) en apportant le contexte métier. Participer à la validation des développements pour garantir la conformité avec les attentes. Intervenir sur les phases de développement, test, déploiement et post-production. Collaborer avec des interlocuteurs transverses (autres domaines et entités). Compétences métiers recherchées Paiements : flux SEPA, virements, prélèvements, gestion des moyens de paiement. Clients : gestion des données clients (KYC, onboarding, segmentation). Transactions : suivi des opérations bancaires, reporting, conformité réglementaire. Finance : notions de comptabilité bancaire, rapprochements, indicateurs financiers. Data Governance : qualité des données, intégrité, respect des standards. Compétences IT recherchées SQL : niveau confirmé (requêtes complexes, optimisation). Modélisation de données : conception et validation de modèles relationnels. Outils de gestion de données : connaissance des environnements Data Warehouse / ETL. Tests fonctionnels : validation des développements et des flux. Connaissance des architectures bancaires : systèmes transactionnels, intégration des données. Séniorité attendue Niveau : Senior / Confirmé (Business Analyst Data - Niveau 4 Proficient) Expérience : 5 à 8 ans minimum en analyse fonctionnelle et data dans des environnements complexes. Capacité à travailler en autonomie, à challenger les besoins métiers et à interagir avec des équipes techniques. Maîtrise des outils et concepts (SQL, modélisation de données, gouvernance data). Anglais professionnel (échanges à l'international) et français courant
Freelance

Mission freelance
PRODUCT OWNER DATA CRM / DIGITAL

Publiée le
Snowflake

12 mois
560 €
Paris, France
Télétravail partiel
CONTEXTE Le poste s’inscrit chez un grand acteur du Retail à portée internationale. Le PO évoluera au sein d’une équipe Data d’environ 30 personnes, organisée par domaines. Rattachement direct au Lead PO Data Sales / Finance / CRM. Mission : piloter la vision, la roadmap et la valeur produit sur les périmètres CRM, Digital et e-commerce. ENVIRONNEMENT TECHNIQUE – Excellente maîtrise du SQL, notamment sur gros volumes de données. – Stack technologique : – Snowflake (Data Warehouse) – Matillion (ETL), migration vers DBT prévue – QlikSense (reporting et visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur l’ensemble des sujets Data liés au CRM, au Digital et à l’e-commerce. Responsabilités : – Conception des parcours utilisateurs et définition des KPIs clés. – Rédaction de spécifications fonctionnelles destinées aux Data Engineers / Data Analysts. – Gestion du Data Catalog sur le périmètre attribué. – Garantir le design produit, la cohérence fonctionnelle et la qualité des livrables Data. Cadre de travail : – Méthodologie Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : vision produit, capacité à challenger les besoins métiers, esprit critique élevé. PROFIL RECHERCHÉ – Minimum 8 ans d’expérience dans la Data, dont 4 ans en tant que PO ou Chef de Projet Data. – Solide culture Retail, avec maîtrise des enjeux CRM, omnicanal et e-commerce. – Qualités recherchées : – Autonomie, prise d’initiative – Leadership et capacité à fédérer – Excellentes capacités d’analyse et de structuration – Capacité à challenger et à apporter de la valeur métier
Freelance

Mission freelance
Machine Learning Engineer (Détection des fraudes)

Publiée le
Data science
Dataiku
Machine Learning

4 mois
580-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur bancaire Description 🏢 Le Contexte Pour le compte d’un grand groupe bancaire français , nous recherchons un expert en Data Science pour rejoindre une équipe pluridisciplinaire (Conformité, IT, Gestion de projet) en pleine transformation. Le groupe lance une refonte majeure de son dispositif de surveillance LCB-FT (Lutte Contre le Blanchiment et le Financement du Terrorisme). L’objectif est de passer d’une approche traditionnelle (moteur de règles) à une solution interne innovante intégrant le Machine Learning et l'IA . 🎯 Votre Mission Au cœur de la Direction de la Conformité, votre rôle principal est de réduire significativement le taux de faux positifs et d'améliorer la capacité de détection de nouveaux schémas de fraude, tout en garantissant une explicabilité totale vis-à-vis du régulateur. Vos responsabilités principales : Modélisation & Data Science : Élaborer de nouveaux modèles de scoring et de segmentation de la clientèle. Combiner des approches supervisées et non supervisées pour détecter les comportements suspects (patterns connus et atypiques). Réaliser le Feature Engineering : sélection et validation des variables pertinentes (historique bancaire, KYC, transactions). Optimisation & Performance : Réviser les seuils de déclenchement des alertes pour optimiser le travail des analystes. Assurer la performance des modèles aussi bien en traitement Batch qu'en Temps Réel. Gouvernance & Explicabilité (Critique) : Garantir que chaque modèle produit est "auditable" et explicable (transparence des décisions, justification des variables) pour répondre aux exigences réglementaires strictes. Gestion de Projet & Accompagnement : Accompagner les phases de cadrage, recette et industrialisation. Rédiger les livrables (cahiers des charges, expressions de besoins, documentation technique). 🛠 Environnement Technique Stack principale : Python, Dataiku. Données : Historique opérations, KYC, relations clients, volumétrie bancaire standard.
Freelance
CDI

Offre d'emploi
Architecte Fabric Power BI / Data Platform

Publiée le
Azure
Data Lake
microsoft

6 mois
Paris, France
Télétravail partiel
Vous intervenez en tant que référent sur la fabrique BI d’un grand groupe international. Votre rôle : définir l’architecture de la data platform, structurer les modèles et pipelines Power BI/Fabric, établir les standards et bonnes pratiques, accompagner les équipes métiers et IT, piloter l’équipe opérationnelle et garantir la qualité des livrables. Vous travaillez à la frontière du conseil et de la technique, en lien avec les architectes et la stratégie Data du client. Environnement Azure moderne, contexte multi-filiales (28 pays), forte visibilité et autonomie.
Freelance
CDI

Offre d'emploi
Expert Infrastructure & Automatisation IA/Data

Publiée le
Linux

1 an
Paris, France
Télétravail partiel
Contexte de la mission Vous accompagnerez la modernisation des infrastructures logicielles et serveurs, tout en soutenant les projets IA/Data en production. Vous garantirez leur scalabilité, sécurité et traçabilité dans des environnements critiques du secteur financier. Vos missions • Moderniser et sécuriser les environnements applicatifs et serveurs • Automatiser les déploiements et configurations via Infrastructure as Code (IaC) • Assurer la scalabilité et la sécurité des projets IA/Data en production • Collaborer avec les équipes Data Scientists, DevOps et Sécurité • Participer aux audits et garantir la conformité réglementaire (RGPD, ISO 27001) • Mettre en place des solutions de monitoring et traçabilité des modèles IA
CDI

Offre d'emploi
 Ingénieur Mathématiques Appliquées / ML Data Scientist

Publiée le
Azure
Google Cloud Platform (GCP)

40k-54k €
Paris, France
Redlab cherche pour son client parisien , un Data scientist confirmé ( 4-6 ans d'expérience ) pour un démarrage en début d'année 2026 , le consultant interviendra sur : Rôle Modélise, développe et optimise des algorithmes d’IA : ML, Deep Learning, LLM, optimisation et pipelines cloud. Missions clés Concevoir pipelines de données (Azure/GCP/AWS). Développer modèles ML/DL/LLM (TensorFlow, PyTorch). Fine-tuning (BERT, LLaMA, etc.). Optimiser modèles (pruning, quantification). Collaborer avec équipes Data & Dev pour intégration.
Freelance

Mission freelance
Data Analyste Communication Digitale

Publiée le
Réseaux sociaux
Site web
Web

18 mois
100-400 €
Paris, France
Télétravail partiel
MISSIONS : - Assurer une veille continue et réactive des sujets de discussions sur les réseaux sociaux et le web, au travers d’outils de social listening - Rédiger en temps limité des notes d'analyse des retombées sur ces sujets (des notes quotidiennes, mensuelles, thématiques, ad hoc…) - Assurer une veille en temps réel des sujets de crise et, régulièrement, d’émissions en direct durant leur diffusion en soirée - Effectuer des études réputationnelles et des recommandations de profils d’influenceurs et influenceuses -Construire des recommandations stratégiques et éditoriales à l'attention de l'équipe de la Direction de la communication digitale et des autres Directions du Groupe Expertises demandées : - Plus de 5 ans d’expérience similaire - La maîtrise préalable de Talkwalker et de X Pro est nécessaire pour la réalisation de la prestation, de même qu'une expertise avancée des méthodologies d'écoute. - Une excellente aisance rédactionnelle est nécessaire, avec une rigueur syntaxique et orthographique marquée. -Des connaissances étendues sur les sujets sociétaux, politiques, médiatiques et numériques devront pouvoir être mobilisées. Spécifiquement, des connaissances sur le fonctionnement des principaux réseaux sociaux sont attendues.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

393 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous