Here are some jobs that could be of interest.
Find your next tech and IT Job or contract role.

Contractor job
Data Engineer – GCP / BigQuery / DBT
Contexte de la mission Nous recherchons un Data Engineer expérimenté afin de renforcer l’équipe Data et contribuer à la mise en place, l’optimisation et l’industrialisation de la plateforme de données sur Google Cloud Platform (GCP) . Vous interviendrez sur des problématiques de modélisation, transformation et exploitation de données avec BigQuery et DBT , en collaboration avec les équipes métier et analytics. Vos missions Concevoir, développer et maintenir les pipelines de données dans un environnement GCP. Implémenter et optimiser des modèles de données dans BigQuery . Mettre en place et maintenir les transformations avec DBT (Data Build Tool). Garantir la qualité, la performance et la fiabilité des traitements de données. Participer aux choix techniques et bonnes pratiques (CI/CD, documentation, monitoring). Collaborer avec les équipes Data Analysts / Data Scientists pour assurer la disponibilité et la pertinence des données.

Contractor job
Mission de Data Engineer - Retail
Nous vous proposons de rejoindre un grand acteur du retail pour une mission de Data Engineer. En tant que Data Engineer vous aurez un rôle clé dans l'amélioration des sales pipelines, la modélisation de nouveaux business models de données de vente et le support aux autres équipes pour une utilisation efficace des données de vente. En tant qu'entreprise de retail , des informations de vente précises et pertinentes sont cruciales, rendant cette équipe centrale pour les processus de décision opérationnels et stratégiques clés. Les responsabilités incluront la maintenance des data flows , avec un accent particulier sur la résilience des produits et l'excellence opérationnelle. Les missions : Développement et maintenance des Data Pipelines User Enablement & Support Promotion des Best Practices Operational Excellence Stack technique : Amazon Web Services (S3) Databricks Approche SQL first avec dbt et/ou Apache Spark (PySpark) Ordonnancement avec Airflow (Python) Github
Contractor job
AWS Data Engineer - Inside IR35
An AWS Data Engineer is required for an initial 12 month contract. This role is hybrid requiring 2 days per week on site in Knutsford and is inside IR35 so you will need to work via an FCSA accredited umbrella company. Job Description: Years of Experience : 8+ Essential Skills: *AWS Data Engineering, ML Engineering, ML-Ops, ECS, Sagemaker, Gitlab, Jenkins, CI/CD, AI Lifecycle, Experience in front-end development (HTML, Stream-lit, Flask.) *Familiarity with model deployment and monitoring in cloud environments (AWS). Understanding of machine learning lifecycle and data pipelines. *Proficiency with Python, Pyspark, Big-data ecosystems *Hands-on experience with MLOps tools (e.g., MLflow, Airflow, Docker, Kubernetes) Desireable Skills : *Experience with RESTful APIs and integrating backend services LA International is a HMG approved ICT Recruitment and Project Solutions Consultancy, operating globally from the largest single site in the UK as an IT Consultancy or as an Employment Business & Agency depending upon the precise nature of the work, for security cleared jobs or non-clearance vacancies, LA International welcome applications from all sections of the community and from people with diverse experience and backgrounds. Award Winning LA International, winner of the Recruiter Awards for Excellence, Best IT Recruitment Company, Best Public Sector Recruitment Company and overall Gold Award winner, has now secured the most prestigious business award that any business can receive, The Queens Award for Enterprise: International Trade, for the second consecutive period.
Contractor job
[TPR] Data Scientist / Data Engineer - EXPERT Minimum 10 XP - 941
Contexte et objectifs de la mission : Le client recherche un Data Scientist / Data Engineer confirmé disposant d’une expérience éprouvée en Data Science, en Large Language Models (LLMs) et dans l’utilisation avancée de LangChain et LangGraph. Le candidat participera à la conception, l’optimisation et l’industrialisation de solutions d’intelligence artificielle sur une stack Azure Fabric, Docker et App Container Services, incluant des modèles multimodaux et de Computer vision. Missions : • Concevoir, entraîner et déployer des modèles prédictifs et explicatifs (Machine Learning, Deep Learning). • Développer et maintenir des pipelines de données performants sur Azure Fabric. • Conteneuriser et orchestrer les modèles via Docker et App Container Services. • Implémenter et automatiser des workflows complexes via n8n. • Intégrer et exploiter des LLMs (fine-tuning, RAG, GraphRAG) dans des environnements de production. • Développer des solutions avancées à l’aide de LangChain et LangGraph pour la création d’agents intelligents et d’applications IA. • Mettre en œuvre des modèles multimodaux (texte, image, audio, vidéo) et de computer vision. • Concevoir des interfaces de visualisation et d’interaction via Streamlit. • Exploiter des LLMs Azure OpenAI et des modèles open source (Mistral, Llama, etc.) via Hugging Face. • Garantir la qualité, la robustesse et la documentation du code et des modèles. Compétences essentielles et expérience • Automatisation & Orchestration : n8n • LLMs & IA Générative : fine-tuning, RAG, GraphRAG, LangChain, LangGraph, modèles multimodaux, Azure OpenAI, Hugging Face, LLMs open source • Machine Learning / Deep Learning : Régression linéaire et non linéaire, Random Forest, XGBoost, Gradient Boosting, CNN, RNN, Transformers, Computer Vision • Cloud & Conteneurisation : Azure Fabric, Docker, App Container Services • Langages : Python, SQL • Frameworks & Outils : Streamlit, FastAPI, scikit-learn, PyTorch, TensorFlow Profil recherché • Bac+5 (Master / Ingénieur) en Data Science • Minimum 5 ans d’expérience en Data Science et Data Engineering. • Expérience éprouvée dans la mise en production de LLMs et l’usage de LangChain / LangGraph. • Bonne maîtrise des LLMs open source et Azure OpenAI via Hugging Face. • Solides compétences en modélisation prédictive, automatisation et industrialisation de modèles IA. • Esprit analytique, rigueur et autonomie.

Job Vacancy
Data Engineer with C# Dot net and SQL Server SSIS
Data Engineer with SQL Server SSIS and C# Dot Net asp.net Our Client is a bank based in Central London who are looking to recruit a Data Engineer with the ability to work with C# Dot net and SQL Server with SSIS. You must have solid expertise of at least 5 years experience of working with and developing software with C# Dot Net and MS SQL Server and SSIS – SSIS is very important for this position. Responsible for the development and delivery of new systems to automate and streamline processes required by different departments. To support the internal IT department with changes and upgrades to software platforms. To be primary contact for all technical questions relating to in-house bespoke systems and interfacing. Data Support Supporting budgeting and financial planning processes for Finance department, including loading and refreshing of data based on requirements. Understand and conduct the front-end functionality to amend and change hierarchical structures within the environment. Build data flows within the SQL environment in SSIS packages. Risk & Regulatory Duties Maintain knowledge of all applicable regulatory requirements including the Bank’s Risk and Compliance policies and procedures and adhere to these to avoid exposing the Bank to undue risk. Report policy/procedure breaches and areas of potential non-compliance and suspicions promptly upon identification in accordance with the Bank's Risk and Compliance policies. Accurately execute all controls within own area to minimise risk of policy, procedure, and/or regulatory breaches. Identify new risks/control gaps within own area and escalate accordingly to your Line Manager and/or Head of Department. Knowledge and Skills Software analysis and design. SQL Server query language with SSIS. Data warehouse design concepts, (Inmon or Kimball) Experience of developing software with C# Dot Net and asp.net is a must. Must have solid experience of working with SSIS and building data warehouses. The Client is a Bank based in the Central London. Must have a degree qualification. This is a 12 month FTC position with a salary of circa £55K - £70K. This is a hybrid position - you will be required to be in the office at least 3 days week. Do send your CV to us in Word format along with your salary and availability.

Contractor job
Data Engineer AWS Senior – (PySpark )
Contexte de la mission En renfort de l’entité Solutions Data , le Data Engineer Senior interviendra dans un environnement hybride Cloud / On-Premise (cible On-Premise) pour participer activement aux activités Run, Build, Expertise et Accompagnement . 🚀 Missions principales Participer à l’élaboration du design technique des produits logiciels. Contribuer à la recherche et mise en œuvre de solutions techniques adaptées. Prendre en charge une partie des développements . Accompagner et coacher les autres développeurs (optimisation de code, bonnes pratiques). Collaborer avec l’ architecte Data pour l’intégration des produits dans le SI. Garantir la qualité des produits logiciels livrés. Accompagner les directions métiers dans la réalisation de leurs cas d’usage Data. 🔧 Compétences obligatoires Spark / Java (maîtrise avancée) Python (maîtrise avancée) SQL (maîtrise avancée) Cloud AWS : S3, Glue, Redshift, Step Functions, Lambda CI/CD : Git, Jenkins ETL : XDI et/ou ODI 🌟 Compétences souhaitées (atouts) Docker Terraform Power BI / Business Objects 📍 Localisation Mission basée à Châtillon (92) .
Contractor job
Data Engineer (GCP/Talend)
• Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Contractor job
Data Engineer IA GCP
🎯 Contexte Dans le cadre d’un projet stratégique IA Générative , notre client met en place une infrastructure Data et IA pour un programme innovant de transcription d’appels en temps réel à grande échelle. L’objectif est de créer une plateforme robuste et scalable sur GCP , capable de traiter des flux massifs de données vocales clients via des modèles Speech-to-Text et d’intégrer ces données dans les applications métiers. 🛠️ Missions principales Concevoir et déployer l’ infrastructure Data et IA sur GCP pour supporter des charges massives. Développer des pipelines de données en Python pour l’ingestion, la transformation et l’exploitation temps réel. Collaborer avec les équipes IA/ML pour l’intégration des modèles de transcription vocale (Speech-to-Text) . Garantir la scalabilité , la résilience et les performances de la plateforme. Mettre en place les bonnes pratiques de monitoring, sécurité et optimisation des coûts (FinOps). Participer aux choix techniques structurants liés à l’IA générative et aux architectures temps réel.
Contractor job
Big Data Engineer - High level Clearance
Big Data Systems Engineer Highest Level of Clearance Full time onsite You will be responsible for designing, implementing, and maintaining scalable big data systems that support our data science, machine learning, and AI workloads. You will work closely with cross-functional teams to ensure seamless data integration, security, and compliance with GDPR and privacy regulations. Your expertise in scripting, troubleshooting, and integration testing will be essential in optimizing our data pipelines and orchestration processes. Role responsibilities: * Scripting and Automation: Develop and maintain scripts for automating data processes and workflows. * Troubleshooting: Diagnose and resolve technical issues related to big data systems, data pipelines, and integrations. * Integration Testing: Conduct thorough testing to ensure seamless integration of new tools and technologies into existing systems. * Linux Internals: Utilize in-depth knowledge of Linux internals to optimize performance and reliability of big data infrastructure. * Network Protocols: Apply understanding of TCP/IP and OSI models in the design and troubleshooting of networked systems. * Data Pipeline Support: Manage and optimize data pipelines and orchestration tools such as NiFi and Airflow. * Scalable System Design: Design scalable big data systems with a focus on security, GDPR compliance, and privacy * Hybrid Cloud Management: Leverage hybrid cloud experience to manage on-premise and AWS cloud resources effectively * Data Science Support: Support data science, machine learning, and AI workloads using tools like Jupyter, Spacy, Transformers, and NLTK. * Big Data Platforms: Utilize big data NoSQL engines and platforms such as Hive, Impala, and Elasticsearch for data storage and processing * BI and Visualization: Implement and support business intelligence and visualization tools like Tableau, Kibana, and PowerBI to provide actionable insights. We are looking for: * Strong troubleshooting skills and the ability to diagnose and resolve complex technical issues. * Experience with integration testing and ensuring seamless tool integration. * In-depth knowledge of Linux internals and system administration. * Understanding of TCP/IP and OSI models. * Hands-on experience with data pipeline tools like NiFi and Airflow. * Proven ability to design scalable big data systems with a focus on security and GDPR compliance. * Hybrid cloud experience, specifically with on-premise and AWS cloud environments. * Familiarity with data science, machine learning, and AI tools such as Jupyter, Spacy, Transformers, and NLTK. * Experience with big data NoSQL engines/platforms such as Hive, Impala, and Elasticsearch. * Proficiency with business intelligence and visualization tools like Tableau, Kibana, and PowerBI. * Excellent communication and collaboration skills. Preferred Qualifications: * Certification in AWS or other cloud platforms. * Experience with additional data orchestration tools. * Familiarity with other big data tools and technologies. * Previous experience in a similar role within a dynamic and fast-paced environment. Please send your latest CV Due to the nature and urgency of this post, candidates holding or who have held high level security clearance in the past are most welcome to apply. Please note successful applicants will be required to be security cleared prior to appointment which can take up to a minimum 18 weeks. LA International is a HMG approved ICT Recruitment and Project Solutions Consultancy, operating globally from the largest single site in the UK as an IT Consultancy or as an Employment Business & Agency depending upon the precise nature of the work, for security cleared jobs or non-clearance vacancies, LA International welcome applications from all sections of the community and from people with diverse experience and backgrounds. Award Winning LA International, winner of the Recruiter Awards for Excellence, Best IT Recruitment Company, Best Public Sector Recruitment Company and overall Gold Award winner, has now secured the most prestigious business award that any business can receive, The Queens Award for Enterprise: International Trade, for the second consecutive period.

Contractor job
DATA ENGINEER Cloud GCP
CONTEXTE : En pleine expansion, nous souhaitons renforcer l’équipe Data par de nouvelles expertises en data engineering et aider ainsi à la mise en place de solutions Big Data dans un environnement Cloud GCP. Cette équipe est composée d’un product owner et de data engineers. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données en batch, Apache Beam pour les traitements en streaming et Airflow pour l’orchestration. La stack inclut aussi les services BigQuery, Dataproc et PubSub de la Google Cloud Platform et Terraform pour la gestion de l’infrastructure. MISSIONS : Au sein de l’équipe Data et au cœur de la plateforme data, la prestation se déroulera en collaboration avec les experts métier de la donnée, les product owners, les data scientists ou encore les data managers. Cette plateforme repose sur une architecture Lakehouse construite sur la Google Cloud Plateform. En travaillant avec les autres Data Engineers de l’équipe, la prestation consistera à participer à : • La collecte et l’ingestion de différentes sources de données non homogènes • La mise en place de pipelines de traitement de données • Le développement des modèles de données • L’extraction et l’exposition des données du Lakehouse vers d’autres services • L’industrialisation des projets sur la GCP • La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe
Contractor job
Azure Data Engineer (Azure Functions / Kafka / MS Fabric)
Nous recherchons un expert en data engineering pour nous accompagner dans un premier temps à l’extraction des données financières depuis SAP vers notre plateforme de données Azure, puis au développement de pipelines de données robustes. Le projet consiste à intégrer SAP BW et SAP BFC à la plateforme Azure. L'objectif est de centraliser efficacement les données financières pour alimenter un modèle d'intelligence artificielle destiné à prédire les KPIs financiers de l’entreprise. Le consultant idéal aura une solide expérience des Azure Functions , Apache Kafka , Microsoft Fabric , ainsi qu’une bonne maîtrise de SAP BW et SAP BFC . Ce projet est essentiel pour améliorer nos capacités de traitement de données financières et garantir des analyses prédictives fiables. 📌 Objectifs & livrables L’objectif principal est d’assurer une intégration fluide des systèmes financiers à notre plateforme Azure. Les livrables attendus incluent : Concevoir et implémenter un pipeline de données entre SAP BW, SAP BFC et Azure Garantir l'intégrité et la sécurité des données tout au long du processus Optimiser les flux de données pour un traitement et une analyse en temps réel Faciliter la consommation des données par des modèles d'IA pour la prédiction des KPIs Fournir la documentation et la formation pour la maintenance et le support

Job Vacancy
Data Engineer Sénior (Secteur Finance)
Nous recherchons actuellement un data engineer sénior ayant une expérience dans le secteur de la finance (équipe global market ou compliance par exemple). Aspects contractuels de la missions : - Démarrage de la mission ASAP - Les locaux se situent dans le 13eme arrondissement de Paris - La mission sera de longue durée (3 ans). - Client dans le secteur bancaire. - Télétravail prévu 2 jours par semaine, présence demandée 3 jours par semaine - L'anglais fait partie de la mission : Communication avec des membres de l'équipe à Porto - Des astreintes seront mises en place pour la maintenance évolutive, avec 3 ou 4 nuits par mois, réparties sur tous les membres de l'équipe selon un planning determiné un mois en avance. Les week-ends tombent tous les 1 mois et demi pour tous les membres de l'équipe. L’équipe : - Adresse des sujets des différents métiers comme Global Market (rentabilité commerciale et performance des équipes de vente), trading (pour la demande de prix ur les plateforme éléctroniques), compliance (fournir des alertes en post trade pour les informations clients). - L'équipe travaille sur de l'on premise sur des datas centers (raisons de coûts et de sécurité). La mission consiste à mettre en place, gérer et modifier les pipelines de livraison. La partie maintenance évolutive reste une part importante de la mission, et comprends également une partie support niveau 2.

Job Vacancy
Data Engineer - Engine by Starling
Description At Engine by Starling, we are on a mission to find and work with leading banks all around the world who have the ambition to build rapid growth businesses, on our technology. Engine is Starling's software-as-a-service (SaaS) business, the technology that was built to power Starling Bank, and two years ago we split out as a separate business. Starling Bank has seen exceptional growth and success, and a large part of that is down to the fact that we have built our own modern technology from the ground up. This SaaS technology platform is now available to banks and financial institutions all around the world, enabling them to benefit from the innovative digital features, and efficient back-office processes that has helped achieve Starling's success. We draw upon our experience as knowledgeable bankers, and best in class technologists to become the chosen option for these banks, and preferred partners for leading consultancies. As a company, everyone is expected to roll up their sleeves to help deliver great outcomes for our clients. We are an engineering led company and we're looking for someone who will be excited by the potential for Engine's technology to transform banking in different markets around the world. Hybrid Working We have a Hybrid approach to working here at Engine - our preference is that you're located within a commutable distance of one of our offices so that we're able to interact and collaborate in person. About the Role As Engine is Starling's SaaS offering we hold all of the data that is needed to run our client banks. We need to model, extract, join, format and ultimately securely share data with our clients so they can get insights into their business, build regulatory reports and run marketing campaigns. We're already sharing millions of rows of data with our clients everyday and this is set to grow over the coming years. We're investing in our internal and external reporting tooling so we can give our clients better insights, faster and support internal operations of Engine. As a Data Engineer you'll be at the heart of our reporting tooling, adding new data features and improving how we expose new entities to our clients and operations teams. You'll also be helping to build tooling so we can get better visibility into data lineage, data quality and how accurate our documentation is. You'll also be assisting our platform engineers to improve modelling of new features in a way that helps clients to use the data later. Engine Engineers are excited about helping us deliver new features, regardless of what their primary tech stack may be. Hear from the team in our latest blogs or our case studies with Women in Tech . Day in the Life of a Software Engineer What you'll get to do Shape the future of data for Engine, including approaches, tooling and architecture. Develop data as a core product offering for Engine both internally and for our clients, working with and responding to client feedback and market analysis. Work across the boundary of software engineering and core data platform challenges. Understand, build and develop data integration and warehousing solutions. Deliver exceptional data solutions promoting a self service culture through trusted pipelines, quality checks, clear documentation, lineage, entity relationships and governance. Identify, design, and implement internal process improvements: automating manual processes, optimising data delivery, etc. Coach and mentor software engineers in the ways of data engineering across the organisation. Obtain a wide and varied understanding of how our internal teams and client banks operate. Work with cloud-based infrastructure (AWS, GCP) for hosting data solutions and applications. Collaborate with clients, solution architects and other engineers to help meet the client goals.

Contractor job
POT8640 - Un Data Engineer BigQuery sur Lille
Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille.
Job Vacancy
Racing Data Processing Engineer
🛠️ Vos missions En tant que Racing Data Processing Engineer , vous jouerez un rôle clé dans le développement de nos stratégies IT et dans l'exploitation des données de course pour améliorer nos performances. Principales responsabilités : Concevoir, développer et maintenir des pipelines de données efficaces et évolutifs pour traiter les volumes importants issus des voitures et des courses. Garantir l'intégrité, la cohérence et la qualité des données grâce à des systèmes de validation et de surveillance automatisés. Collaborer avec des équipes pluridisciplinaires pour transformer les besoins métiers en solutions data performantes. Préparer et présenter des rapports techniques détaillés, des spécifications et des présentations aux parties prenantes.

Contractor job
Data Engineer F/H - LILLE
Notre client, acteur majeur du secteur du Retail, renforce son équipe Data afin de soutenir sa stratégie de digitalisation et d’optimisation de l’expérience client. Dans ce cadre, nous recherchons un(e) Data Engineer passionné(e) par la donnée et désireux(se) d’évoluer dans un environnement stimulant et innovant. Missions principales : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour collecter, transformer et valoriser les données issues de différentes sources (e-commerce, magasins, CRM, supply chain, etc.). Assurer la qualité, la fiabilité et la disponibilité des données pour les équipes métiers, Data Science et BI. Participer à la mise en place d’architectures Big Data et Cloud modernes (Data Lake, Data Warehouse). Contribuer à l’optimisation des performances des traitements de données. Collaborer avec les équipes Data Analysts, Data Scientists et métiers afin de répondre aux besoins business (optimisation de l’expérience client, prévisions de ventes, gestion des stocks…). Mettre en place des bonnes pratiques de développement, de documentation et de monitoring. Environnement technique • Cloud & Data : GCP (BigQuery, Dataform) • Orchestration : Cloud Composer • Transformation : Dataform • Observabilité : Dynatrace • Référentiel & CI/CD : GitLab, Terraform, Cloud Build • Gouvernance & Qualité : DataGalaxy • Documentation & Pilotage : Confluence, JIRA (Scrum)
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- How to Hire a Legitimate Crypt0 Recovery Service in 2025: A Comprehensive Due Diligence Guide for Scam Victims With Techy Force Cyber Retrieval
- Cryptocurrency Tracing and Recovery
- Download &Trade The Flash USDT Sender App USDT Fake sending software Tool
- Tier 1 Exchanges Are Leveling Up
- Do you or would you rent workspace?
- AI Trading Bot Development Company
Jobs by city
Jobs by country