Find your next tech and IT Job or contract Big Data

What you need to know about Big Data

Big Data refers to the massive and complex data generated at high speed by various sources, such as social networks, IoT sensors, online transactions, or mobile applications. This data, often voluminous, heterogeneous, and continuously growing, exceeds the capabilities of traditional management and analysis tools. Big Data relies on the 3Vs: Volume (quantity of data), Velocity (speed of generation and processing), and Variety (diversity of formats, structured or not). It is often associated with a fourth V: Veracity (data reliability). Big Data technologies, such as Hadoop, Spark, or NoSQL, enable storing, processing, and analyzing this data to extract valuable insights. These analyses are used in various fields, such as personalized marketing, finance, healthcare, or industrial optimization. Big Data plays a key role in innovation, decision-making, and digital transformation of businesses.

Your search returns 81 results.
Contractor
Permanent

Job Vacancy
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Published on
Apache Spark
Hadoop
Python

3 years
38k-43k €
300-400 €
Paris, France
Hybrid
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Contractor

Contractor job
Architecte Technique Solution Data

Published on
Big Data
Cloudera

3 months
400-690 €
Ile-de-France, France
La Tribu DATA (DAT) construit et développe des applications sur la base de puissantes plates-formes DATA à des fins d’usages variés servant toutes les directions métiers de la banque. Pour répondre à ces usages, DAT est au cœur de la stratégie datacentric de LCL, et intervient aussi bien au niveau de l’architecture Data, sur les technologies data, Big data, IA, Teradata, SAS, ainsi que sur les solutions analytiques et de datavizualisation. Plus particulièrement dans le cadre de la squad Socles Data, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....). LCL SNI TPI PSP 19/09/2025 Page 1 Les solutions doivent être mises en place dans une optique de service performant et évolutif pour nos métiers et utilisateurs divers, prenant en compte l’écosystème informatique LCL actuel ainsi que la stratégie de modernisation future. Le profil recherché doit avoir une connaissance forte des solutions Data de l’écosystème LCL, ainsi qu’une expérience très significative en qualité d’architecte technique Data. Il doit également avoir quelques notions des nouvelles technologies présentées dans le cadre de la stratégie de modernisation de nos plates-formes et être capable de monter rapidement en compétences dessus. Description complémentaire du profil Softskills: Sens du service. Bonne gestion du stress et des priorisations Très bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie (
Permanent

Job Vacancy
Data Engineer H/F

Published on
Big Data
Data Lake
Spark Streaming

Ile-de-France, France
Hybrid
Le Data Engineer est un développeur au sein de l’équipe Engineering Open Big Data du Département Data, qui regroupe l’ensemble des expertises technologiques liées à l’ingénierie de la donnée, de l’automatisation et à l’exploitation des modèles de Machine Learning. Ce déparetement est dédié au service de notre client et de ses équipes (Data office, Tribus data, Business, Transformation Office etc.), afin de fournir, en collaboration avec le Data Office, les plateformes (RPA, BI, Data, …) et les données nécessaires aux équipes chargées de délivrer les cas d’usages, puis les déployer et les maintenir en conditions opérationnelles.
Contractor

Contractor job
Ingénieur Automatique - Intégration capteurs & bancs de tests

Published on
Big Data
C/C++
Linux

6 months
200-310 €
Paris, France
Hybrid
Contexte de la mission Vous rejoindrez l'équipe en charge de l'intégration des capteurs. Cette équipe pluridisciplinaire au sein du département Automatique : prototype et valide l'intégration des capteurs dans les différents produits, en collaboration avec les départements Mécanique et Électronique ; développe des méthodes de calibration innovantes, en collaboration avec l'équipe Bancs de Tests. Nous recherchons un candidat rigoureux, passionné, curieux, créatif, qui aime travailler dans un environnement dynamique et pluridisciplinaire, et qui n’a pas peur de s’attaquer à des challenges techniques nouveaux. Le candidat doit être diplômé d'une école d'ingénieur ou d'un master avec specialisation en Automatique, Mécatronique, Robotique ou similaire. Une experience professionnelle dans le domaine de l'automatique des systèmes embarqués ou dans la validation de capteurs MEMS est un gros plus. Objectifs et livrables Votre mission sera de contribuer au développement et à l'amélioration continue de nos produits en participant à l’ensemble des responsabilités de l’équipe. Vos missions : 1) Conception mécanique et électronique : Participer au design mécanique et électronique. S'assurer du respect des spécifications. 2) Validation du design & traitement des données des capteurs : Réaliser des tests de caractérisation des capteurs et de leur intégration. Prototyper, concevoir et documenter les méthodes de validation et calibration des capteurs. 3) Industrialisation des méthodes de validation et calibration & suivi de production : Développer et maintenir le code de test (C++, Python). Développer de nouveaux outils de tests. Industrialiser les méthodes de validation et calibration des capteurs. Analyser statistiquement les logs de production pour rejeter les valeurs aberrantes et détecter des problèmes de conception ou de production. Ces tâches nécessitent de : Rédiger des specifications techniques liées aux fonctions développées Réaliser un reporting régulier : documentation de résultats et méthodes, présentations au reste de l'équipe Respecter le planning projet Compétences demandées Compétences Python : Avancé Tests sur banc d'essai : Confirmé Big Data : Élémentaire Capteurs MEMS : Confirmé C++ : Avancé Automatique : Confirmé LINUX : Élémentaire Traitement du signal : Confirmé MATLAB : Confirmé Langues Anglais : Courant
Permanent
Contractor

Job Vacancy
Data Analyste SAS, Python, SQL - Niort

Published on
Big Data

1 year
10k-48k €
100-450 €
Niort, Nouvelle-Aquitaine
Hybrid
Chez K-LAGAN, nous parions sur vous ! 🚀 K-LAGAN est un cabinet de conseil spécialisé dans la Data, l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... 🔍 Nous sommes à la recherche d'un(e) Data Analyst , qualifié(e) et motivé(e) pour rejoindre nos équipes et travailler chez un de nos clients très connu dans le secteur assurances, basé à Niort.
Permanent
Contractor

Job Vacancy
Ingénieur DevOps Big Data (H/F)

Published on
Ansible
Apache Kafka
Cloudera

1 year
55k-65k €
500-520 €
Bordeaux, Nouvelle-Aquitaine
Hybrid
Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
Contractor
Permanent

Job Vacancy
Product Owner Plateforme Big Data (AWS / Databricks)

Published on
Agile Scrum
AWS Cloud
Databricks

12 months
Ile-de-France, France
Hybrid
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Contractor

Contractor job
DATA ARCHITECT FINANCEMENT

Published on
Big Data

12 months
670-700 €
Paris, France
Hybrid
Pour l’un de nos clients du secteur bancaire, nous recherchons un(e) Data Architect spécialisé(e) dans les métiers du financement (Corporate Banking, crédits structurés, syndiqués, etc.). Le consultant interviendra dans la définition et la mise en œuvre de l’architecture fonctionnelle et des flux de données liés aux activités de financement. Il contribuera à la conception des modèles de données, à l’optimisation des échanges entre les systèmes front, middle et back-office, ainsi qu’à la gouvernance de la donnée. Le rôle implique une compréhension fine des enjeux métiers du financement et la capacité à traduire ces besoins en solutions data performantes et sécurisées.
Contractor

Contractor job
Développeur Service Cloud

Published on
Big Data
Data management
Machine Learning

1 year
Lille, Hauts-de-France
Hybrid
L’objectif de la mission est d’effecteur la maintenance corrective et évolutive de l'application Salesforce Service Cloud au sein du SI de notre client. - Gestion des incidents de production - Analyse et correction de problème​s - Développement de correctifs et/ou d'évolutions - Rédaction de spécifications fonctionnelles et techniques - Conception de solution technique Expertises spécifiques : Salesforce Service Cloud Maitrise de l’anglais​ Compétences rédactionnelles Maitrise du SQL​ Bon niveau de communication (orale et écrite)​ Fonctionnement mode proiet (Cycle V et agile : scrum)​ Capacité à gérer des sujets divers en parallèle sur des problématiques fonctionnelles différentes liées aux métiers de la banque.​ Bonne capacité de compréhension des besoins fonctionnels, d’écoute et de communication, bon esprit d’analyse​
Contractor
Fixed term

Job Vacancy
Expert Big Data / Data Engineer Senior (H/F)

Published on
AWS Cloud
Big Data
Google Cloud Platform (GCP)

6 months
80k-85k €
500-550 €
Guyancourt, Ile-de-France
Hybrid
VOS RESPONSABILITES PRINCIPALES : Build – Modernisation & migrations Data Participer au design et à la construction de nouvelles plateformes Data (on-prem Cloudera / Spark / Kafka & cloud AWS/GCP). Configurer, optimiser et sécuriser les environnements Big Data (Spark tuning, Kafka connecteurs…). Travailler avec les architectes et les CloudOps sur les architectures distribuées. Mettre en place des bonnes pratiques : backup, restauration, performance, haute dispo, PCA/PRA . Intégrer pipelines & automatisations (Terraform, GitOps, ArgoCD). Animer ateliers, documentation et transfert de compétences. Run – Support N2/N3 & performance Résolution d’incidents techniques Big Data (HDFS, Spark, Kafka, Flink…). Support aux projets : création de topics Kafka, scheduling Airflow, jobs Spark, optimisation. Montée de version, patching, maintenance préventive. Participation aux astreintes (rotation). Amélioration continue & fiabilisation des environnements critiques. Application stricte du cadre ITIL V4 (incidents / problèmes / demandes).
Contractor

Contractor job
Ingénieur Système & Data – Monitoring / Maintenance / Big Data

Published on
Angular
Apache Spark
Hadoop

3 years
Ile-de-France, France
Hybrid
Contexte de la mission : Au sein de la Direction des Systèmes d’Information d’un grand groupe du secteur financier, vous intégrerez une équipe en charge du pilotage des risques structurels et du reporting financier . L’objectif de la mission est de maintenir et faire évoluer une plateforme technique basée sur la technologie ClickHouse® , en garantissant sa stabilité, ses performances et sa sécurité . Missions principales : La prestation consiste à contribuer aux activités suivantes : Surveillance et monitoring de l’infrastructure ; diagnostic des incidents et anomalies Maintien en conditions opérationnelles de la plateforme (composants, performances, dette technique, montées de version) Rédaction et exécution de scripts de maintenance de l’infrastructure (équilibrage des disques, tuning système, automatisation) Application des exigences de sécurité et des procédures internes (remédiation des vulnérabilités, patching, CI/CD) Définition, estimation et planification des activités techniques Rédaction de spécifications et documentation techniques Support et accompagnement des équipes internes dans la gestion quotidienne de la plateforme
Contractor

Contractor job
Chef de projet Data H/F

Published on
Big Data

12 months
400-510 €
Issy-les-Moulineaux, Ile-de-France
Hybrid
Mission de Chef de projet Data / Contexte Banque Risque/Finance Contexte : Dans le cadre d’un projet de transformation Data au sein du domaine Risque/Finance de notre client, nous recherchons une prestation avec les compétences suivantes : Profil recherché : · CP expérimenté avec des missions validées en tant que Chef de projet Data réalisées dans un environnement bancaire : · Cadrage, Etudes, · Chiffrage et planification des projets · Suivi budgétaire · Idéalement dans un contexte réglementaire / Risque / Finance (ex. COREP/FINREP…) ;
Contractor

Contractor job
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)

Published on
Apache
Apache NiFi
Apache Spark

12 months
400-650 €
Paris, France
Hybrid
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
Permanent

Job Vacancy
Ingénieur·e Vision

Published on
3D
AI
Big Data

Meurthe-et-Moselle, France
Hybrid
En collaboration avec nos Ingénieurs (Data Science, IA, Développeur…) et nos Techniciens Vision chez APREX Solutions, vous participez au développement de nos produits, de la description fonctionnelle jusqu’à la mise en service sur site, pour nos clients issus de secteurs d’activités variés. Plus particulièrement, vous : – Accompagnez notre équipe commerciale dans les phases de pré-études et d’analyse des besoins clients, – Identifiez la technologie de vision la plus adaptée à la réalisation et l’intégration du dispositif à partir du cahier des charges et des échantillons clients, – Assurez la conception matérielle et algorithmique du dispositif à l’aide des outils logiciels développés par nos soins et du matériel que vous aurez identifié, – Gérez vos projets dans le respect des délais et des coûts, définis en amont, – Réalisez la proposition technique complète de la solution pour votre client, – Participez à la mise en service de la solution chez le client et à la formation des utilisateurs.
Contractor

Contractor job
Développeur Senior Java / Big Data — Mission Paris

Published on
Apache Kafka
Big Data
Java

6 months
400-550 €
Ile-de-France, France
Hybrid
Dans le cadre d’un vaste programme de transformation digitale , nous accompagnons un acteur majeur du transport dans la valorisation de ses données industrielles . Au cœur du dispositif : une plateforme Big Data dédiée au stockage, à la qualification et à l’exposition des données en temps réel. 🎯 Vos missions Vous interviendrez sur deux projets stratégiques : Application de localisation en temps réel (Kafka). S ystème d’analyse des incidents des systèmes embarqués. À ce titre, vous serez amené(e) à : Maintenir et faire évoluer les composants des projets. Participer à l’industrialisation des développements autour des API Gateway et microservices ; Accompagner la transition vers le cloud (Databricks, Snowflake, AWS…) ; Mettre en place les flux de données et chaînes d’alimentation ; Développer des API , microservices et interfaces Kafka ; Modéliser les données dans l’environnement Big Data ; Participer aux rituels agiles (Daily, Sprint Review, Planning…) ; Rédiger la documentation technique et automatiser les processus de mise en production. 📅 Conditions de mission Démarrage : 17/11/2025 Rythme : 3 jours sur site / 2 jours en télétravail
Contractor
Permanent

Job Vacancy
Cybersécurité expert / Data N3 Varonis/Purview

Published on
Big Data
Microsoft Purview

1 year
40k-45k €
400-700 €
Ile-de-France, France
Hybrid
Cybersécurité Expert / Data N3 Mission Prestation d'accompagnement dans le but de proposer des services de sécurité autour de la donnée. La mission sera en charge du maintien en condition opérationnelle et du support niveau 3 de la plateforme de gestion de données et des services sur un périmètre de responsabilité international. (Varonis/Purview) Objectifs Principaux Mise en œuvre, maintien et suivi du déploiement de solutions de sécurité autour des données non structurées à l'aide de solutions de gestion et de sécurisation des données. Tâches Attendues Évaluation des exigences fonctionnelles de l'entreprise et détermination des solutions techniques adaptées

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

Contract roles and jobs for Big Data

Data Scientist

The Data Scientist uses Big Data tools and techniques to analyze large datasets, develop predictive models, and extract useful insights from complex data.

Data Developer (BI / Big Data / Data Engineer)

The Data Developer (Decision Support / BI / Big Data / Data Engineer) designs and develops Big Data solutions to store, process, and analyze large amounts of data from various sources.

Architecture Consultant

The Architecture Consultant advises businesses on Big Data architecture, designing solutions to manage and analyze large data quantities while optimizing performance and scalability.

Data Analyst

The Data Analyst uses Big Data techniques to collect, analyze, and interpret complex data to provide insights and recommendations that help businesses make informed decisions.

81 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us