The job you are looking for has been deleted or has expired.
Here are some jobs that could be of interest.
Find your next tech and IT Job or contract role.
Your search returns 18 results.
Job Vacancy
Lecturer in Computing (HE) (Data Science and AI)
Published on
£38,784-43,482
Birmingham, United Kingdom
Job Title: Lecturer in Computing (HE) (Data Science and AI) Location: Birmingham Salary: £38,784 - £43,482 per annum - AC2 Job type: Permanent, Full-time / Part-time UCB is an equal opportunities employer. We are TEF rated Silver, with a Good Ofsted rating. The Role: Ready to inspire the next generation of tech professionals? Join our growing Computing Department and play a key role in shaping the future of Higher Education. Join our academic team and be part of our growth! As a Lecturer, you'll deliver inspiring and inclusive teaching that supports all students in achieving their full potential. This role will focus on teaching a range of Data Science and AI related modules on our HE programmes , where you'll help shape and guide future leaders in the field. You will prioritise practical application and demonstration over theoretical instruction, ensuring students gain real-world skills and experience. Why University College Birmingham? Growing Department: Be part of a team that's thriving and expanding every year. Supportive & Inclusive: Join a collaborative, diverse environment. Career Development : Access ongoing professional growth opportunities. Industry Connections: Work with industry partners, bringing real-world learning into the classroom. Benefits: Generous allocation of annual leave 38 days' paid leave per year 12 Bank Holidays & Concessionary Days Excellent Teachers' Pension Scheme Employer Contributions - 28.6% Subsidised private healthcare provided by Aviva including a Digital GP Service. Employee Assistance Programme inclusive of counselling services, financial wellbeing support and bereavement support Annual health MOTs with our Registered Nurse Excellent staff development opportunities including professional qualification sponsorship A variety of salary sacrifice schemes including technology and cycle. Heavily-subsidised on-site car parking in central Birmingham Free on-site gym membership Extra Information: All applicants for employment at the University will be expected to demonstrate an understanding of the principles of Safeguarding and the PREVENT agenda in the context of further and higher education. Closing Date - Sunday 11 January 2026. Interview Date - Tuesday 27 January 2026. Please click APPLY to be redirected to our website to complete an application form. Candidates with experience or relevant job titles of; Data Science Lecturer, AI Lecturer, Computing Lecturer, Tech Lecturer, Computing Tutor, Computing Teacher, Cloud Technician, IT Support Engineer, IT Service Engineer, Service Desk Technician, IT Support Technician, Cloud Support Engineer, Support Technician, 1st Line Support Engineer, IT Support, IT Systems Support may also be considered for this role.
Contractor job
Data Engineer/ Expert GCP
Published on
BigQuery
Cloud
Data science
12 months
530 €
Toulouse, Occitania
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Contractor job
Senior Data Scientist Python / ML / LLM / Agentic AI
Published on
Large Language Model (LLM)
MLOps
Python
12 months
400-550 €
Paris, France
Hybrid
Contexte Développement de solutions IA avancées pour le projet du client Missions Concevoir, entraîner et optimiser des modèles ML et LLM Implémenter des architectures Agentic AI Industrialiser les modèles (MLOps, monitoring, performance) Collaborer avec les équipes produit et tech Garantir la robustesse et l’éthique des modèles en production Profil recherché 10+ ans d’expérience en data science Excellente maîtrise de Python et des frameworks ML Expérience réelle de LLM et Agentic AI en production Forte capacité d’abstraction et de vulgarisation Experience en IA / AI en production ANGLAIS ASAP
Job Vacancy
Data Scientist
Published on
Data science
Machine Learning
40k-62k €
Levallois-Perret, Ile-de-France
Hybrid
l’Assistant(e) Externe / Datascience & AI Business jouera un rôle clé dans la conduite et le développement des projets d’intelligence artificielle, depuis le cadrage des besoins métier jusqu’à la mise en production des solutions. Votre mission consistera à allier compétences en gestion de projet et savoir-faire technique en datascience pour garantir la réussite des initiatives IA menées au sein de Personal Finance. Vous interviendrez en appui stratégique et opérationnel, en lien étroit avec les équipes Datascience, IT, et les directions métiers. Vos principales responsabilités incluront : • Piloter et coordonner les projets IA / Data : cadrage, suivi des livrables, reporting et animation des points d’avancement. • Analyser les besoins métiers et les traduire en cas d’usage data exploitables. • Contribuer aux travaux de data science : préparation et analyse de données, validation et suivi de modèles (ML, NLP, IA générative). • Produire des livrables de synthèse (dashboards, rapports, présentations) à destination des équipes métiers et du management. • Assurer la communication transverse entre les équipes techniques et métiers, et participer à la documentation et la capitalisation des bonnes pratiques.
Job Vacancy
AI Engineer / Ingénieur·e IA - Intégration & Déploiement
Published on
AI
API
CI/CD
12 months
Paris, France
Ingénieur IA | Python-RAG • Développement d’algorithmes : concevoir et développer des algorithmes d’apprentissage automatique (machine learning), d’apprentissage profond (deep learning) et d’autres techniques d’IA. • Analyse de données : collecter, nettoyer et analyser les données pour entraîner les modèles d’IA. • Optimisation des modèles : améliorer la précision et l’efficacité des modèles d’IA existants. • Intégration de solutions IA : intégrer les solutions d’IA dans les systèmes existants ou développer de nouvelles applications basées sur l’IA. • Recherche et innovation : mener des recherches pour explorer de nouvelles techniques et technologies en IA. • Collaboration interdisciplinaire : travailler avec des équipes multidisciplinaires, y compris des experts en données, des développeurs de logiciels et des chercheurs. • Veille technologique : suivre les avancées et les tendances dans le domaine de l’IA pour anticiper les évolutions et proposer des améliorations. • Documentation et reporting : rédiger des documents techniques, des rapports d’avancement et des publications scientifiques pour partager les résultats et les connaissances acquises. Profil Recherché BAC+4/+5 3 – 5 ans d’expérience en IA, Machine Learning ou Data Science Très bon niveau en Python & RAG, SQL, NoSQL
Job Vacancy
AI Engineer
Published on
AWS Cloud
Docker
FastAPI
1 year
40k-55k €
400-600 €
Ile-de-France, France
Hybrid
Vous êtes passionné(e) par l’innovation et les défis techniques ? Vous avez une solide expérience en Machine Learning et en industrialisation de modèles ? Cette opportunité est faite pour vous ! 🔍 Vos missions : ✅ Concevoir, entraîner et déployer des modèles d’IA performants ✅ Optimiser leur intégration dans nos systèmes ✅ Développer des solutions scalables en Python ✅ Assurer la mise en production et le déploiement ✅ Collaborer avec les équipes Data Science et développement En termes de compétences, sont notamment attendus une maîtrise de : Infrastructure cloud Produits Docker Python et des librairies Machine et Deep Learning (Pytorch, TensorFlow, Fastai, ...) FastAPI Grands Modèles de Langage (LLM) Expérience en création d'outils IA
Contractor job
AI Engineer
Published on
AI
AWS Cloud
Azure
12 months
500-800 €
Paris, France
Hybrid
La mission s’inscrit dans le cadre du projet « Artificial Intelligence Engineering », au sein de la division GDAI du Groupe. Ce projet vise à accompagner les entités dans leur montée en compétence, en définissant et en appliquant les meilleures pratiques en matière d’ingénierie ML / LLM. Nous déployons un parcours de formation en ML/LLM Engineering à l’échelle mondiale du Groupe, et nous recherchons une personne pour soutenir cette initiative. Améliorer le référentiel de formation MLOps / ML Engineering utilisé à l’échelle mondiale au sein du groupe Faire évoluer le parcours vers des pipelines ML sur AWS et Databricks (actuellement sur Azure)
Job Vacancy
Data Scientist - Sécurité & Guardrailing (Gen AI)
Published on
CI/CD
Data science
Generative AI
1 year
40k-58k €
380-570 €
Paris, France
Hybrid
Nous souhaitons renforcer la sécurité de solutions IA afin de garantir la protection optimale des données et prévenir les potentielles vulnérabilités. Cette demande vise à intégrer un consultant avec une expérience de la sécurisation des solutions IA Gen et de la gestion des risques de fiabilité et de sécurité : Élaborer et mettre en oeuvre des stratégies de sécurisation. Paramétrer les premiers systèmes de sécurisation adaptés aux solutions IA générative. Il s'agit d'un accompagnement très opérationnel, en interaction avec les équipes de Data et IA enginieering, de nos architectes IA et de nos équipes de sécurité opérationnelles. L'expert s'intégrera notamment dans l'équipe produit "plateforme IA Gen" déjà en place en charge du chantier pour couvrir ces aspects sur lesquels sont expertises est attendue. La mission inclut : L'évaluation des solutions existantes en termes de sécurité. La proposition et mise en oeuvre des améliorations concrètes. Le paramétrage des systèmes de sécurisation adaptés aux solutions IA. La création de protocoles de sécurité et mise en place des mesures immédiates. La formation des équipes internes aux bonnes pratiques de sécurité en IA. Un accompagnement pendant la mise en oeuvre des recommandations. Les livrables incluent : Des scénarios de tests Des composants et des process de sécurisation des IA Gen, notamment par Guardrailing, paramétrés et opérationnels Des rapports d'évaluation de performances Des composants et des process automatiques d'évaluation de performances des mécanismes de sécurisation Des composants d'automatisations de systèmes de sécurisation paramétrés et opérationnels.
Contractor job
Senior Data Scientist - Gen AI - Finance (h/f)
Published on
12 months
650-750 €
75008, Paris, Île-de-France
Hybrid
Vous êtes un Data Scientist expérimenté, spécialisé dans l'IA générique et Python ? Emagine vous offre l'opportunité de guider et de diriger le développement de structures et d'outils efficaces afin de créer des applications d'IA fiables et dignes de confiance dans un environnement bancaire international. Are you an experienced Data Scientist with expertise in Gen AI and Python? Emagine has an opportunity for you to guide and lead the development of effective structures and tools to create reliable, trustworthy AI applications within a global banking environment. As part of an AI-focused emagine team working on Gen AI initiatives that leverage LLMs and advanced techniques to solve complex business problems. You will work on unstructured data from sources such as legal documents and financial trading policies, building solutions that enable accurate and reliable outcomes. Main Responsibilities Lead the design and implementation of Gen AI solutions for text-based and LLM-driven use cases. Develop Python-based tools for data ingestion, modelling, and manipulation of large volumes of unstructured data. Define effective structures and frameworks to ensure reliability and trustworthiness in AI applications. Collaborate with legal and compliance teams to process and model complex datasets. Key Requirements 5+ years of experience in Data Science including international corporate environments. Strong expertise in Python and hands-on experience with LLMs (e.g., Lama 7DB, GPT-4 API). Familiarity with vectorization, chunking, and advanced data modelling techniques. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Nice to Have Exposure to legal or procedure-focused applications. Other Details Work is a minimum of 3 days per week on-site (8th). Apply with your latest CV or reach out to Brendan to find out more.
Job Vacancy
DATA SCIENTIST
Published on
Natural Language Processing (NLP)
6 months
40k-45k €
400-550 €
Paris, France
Contexte : Dans le cadre du développement de nos projets IA, nous recherchons un Data Scientist expérimenté maîtrisant Vertex AI et les technologies modernes de modélisation et d’industrialisation. Missions : Développement et entraînement de modèles ML/IA (supervisé, non supervisé, deep learning). Utilisation avancée de Vertex AI (training, pipelines, model registry, monitoring). Participation à la construction de solutions génératives ou prédictives (LLM, NLP, time series, recommendation…). Préparation, exploration et structuration de datasets à grande échelle. Déploiement, optimisation et suivi des modèles en production. Compétences recherchées : Très bonne maîtrise de Python , Scikit-Learn, TensorFlow ou PyTorch. Expertise Vertex AI (training, notebooks, pipelines, endpoints). Connaissance des environnements GCP (BigQuery, Storage, Pub/Sub). Solides compétences en statistiques, math appliquée et optimisation. Expérience avec LangChain / LangGraph / LLM (souhaitée). Profil attendu : 3 à 8 ans d’expérience en Data Science ou ML Engineering. Capacité à vulgariser et à proposer des solutions adaptées au besoin métier. Forte autonomie et sens du delivery.
Job Vacancy
Data Ops
Published on
DevOps
Python
40k-70k €
Levallois-Perret, Ile-de-France
Hybrid
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Job Vacancy
Project Manager Data & Analytics - 12 months - Brussels
Published on
Data analysis
Lean
Project Portfolio Management (PPM)
12 months
Brussels, Brussels-Capital, Belgium
Hybrid
Project Manager Data & Analytics - 12 months - Brussels Our important client is currently looking for a Project Manager Data & Analytics for a 12-month contract based in Brussels. Hybrid with 2 to 3 days onsite mandatory. Please find the description below: As Project Manager within our Data & Analytics team, you play an instrumental role in the realization of this vision by managing a number of projects related to the delivery of our data & analytics platforms, data assets and data products. Key responsibilities Lead project delivery from beginning to end; Define project scope, goals and deliverables that support business goals in collaboration with management and stakeholders; Develop full-scale project plans and associated communications documents following the company’s standard; Draft and submit budget proposals, and recommend subsequent budget changes where necessary as per defined process; Ensure that project meets its deliverables in agreed schedule, as per the scope, within stipulated budget and as per the quality standards; Effectively communicate project expectations to team lead and stakeholders in a timely and clear fashion; Ensure project or service scope and deliverables are defined and agreed with all relevant parties; Liaise with business and IT Teams on an ongoing basis; Diagnose and evaluate potential risks and issues throughout the project and execute appropriate plans to mitigate them. Reports regularly to the Team Lead and Stakeholders with regard to risks You have experience in delivering Data & Analytics deliverables (building data platform, ingestion of data assets, reporting, data science, data exploration, AI/ML, ...) Knowledge of the Azure data stack and SAP and BW4 is a plus Knowledge of train planning, passenger transport, train maintenance, HR, Finance, Marketing & Sales processes is a plus Knowledge of ESG and CSRD is a plus Profile You communicate fluently in Dutch, French and English (spoken and written). Dutch or French as a mother tongue or at least C level. Other language at least B2. English B2. You can physically come to the office min 2d per week You have 15+ years experience with project management You have 10+ years experience in delivery of projects in the Data & Analytics area You have 2+ years experience in the passenger transportation sector is a plus You have an active Project Management certification (PM2 and/or PMBOK). You have a Lean Six Sigma certification. You have legal authorisation to work in Belgium If you are interested please send me your CV and I will contact you as soon as possible with further details.
Job Vacancy
Administrateur Infrastructure / maintenance et évolution de la plateforme IA
Published on
DevOps
Docker
1 year
40k-45k €
250-300 €
Ile-de-France, France
Contexte Dans le cadre de sa prestation, l'intervenant externe évoluera au sein de la direction de la Data d'une institution financière majeure, au sein d'une équipe AI Delivery. AI Delivery accompagne les métiers et les pays dans leurs projets de data science et analyse, depuis la génération de use case jusqu'à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu'une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers la plateforme de Datascience « Sparrow », qui comporte : Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource facilitant les développements des Data Scientist. Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. Un outil de Community Management, Sparrow Academy. L'équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d'être garante de la qualité des livrables de l'ensemble de la direction, de les déployer sur le cloud privé du Groupe et enfin d'assurer la haute disponibilité de l'ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. Nous faisons appel à une prestation en assistance technique pour assurer l'évolution et la haute disponibilité de l'ensemble de nos assets. Missions Administration/Exploitation/Automatisation système d'exploitation de nos clusters Build et optimisation d'images Docker + RUN de nos 400 containers de production (>500 utilisateurs) Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d'évolution de l'architecture Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover Rédaction de documents techniques (architecture, gestion des changes et incidents) Production de livrables de qualité et partage des connaissances à l'équipe Participer à la maintenance/l'évolution des frameworks de data science existants (Python) Participer à la maintenance/l'évolution des pipelines de CI/CD (Gitlab CI, GitOps) Participer à la maintenance/l'évolution de l'Observabilité des plateformes (logging, monitoring, traçabilité) Participer à la mise en production des outils et des solutions IA déployées sur la plateforme Être force de proposition et participer aux POCs
Job Vacancy
Administrateur(trice) Dataiku DSS - LUXEMBOURG
Published on
Dataiku
Python
Scripting
6 months
40k-60k €
400-600 €
Luxembourg
Mission au Luxembourg. Il est impératif et obligatoire de résider ou être proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée
Contractor job
Java Developer
Published on
90 months
Cheshire East, United Kingdom
Java Developer Knutsford with Hybrid working £330 inside IR35 per day Required Skills and Experience: - Strong proficiency in Core Java programming with at least 5+ years of hands-on development experience - Extensive experience with Spring Framework (Spring Boot, Spring MVC, Spring Security) - Solid understanding of ORM frameworks, particularly Hibernate - Experience working with relational databases (MySQL, PostgreSQL, Oracle, etc.) - Familiarity with CI/CD pipelines and tools, specifically GitLab CI - Demonstrated experience in production support environments, including L3 support and troubleshooting production issues - Ability to analyze and resolve complex technical problems in live environments - Experience with version control systems (Git) ## Highly Valued Additional Skills: - Experience with AI-powered coding tools such as GitLab Duo, GitHub Copilot, or similar AI coding assistants - Knowledge of microservices architecture and RESTful API design - Experience with containerization technologies (Docker, Kubernetes) - Understanding of agile development methodologies - Experience with test-driven development and automated testing frameworks ## Responsibilities: - Design, develop, and maintain Java-based applications using Spring and Hibernate - Collaborate with cross-functional teams to define, design, and ship new features - Optimize application performance and scalability - Troubleshoot and resolve production issues as part of L3 support rotation - Participate in code reviews and contribute to technical documentation - Implement and maintain CI/CD pipelines using GitLab - Ensure code quality, reliability, and security through best practices ## Qualifications: - Bachelor's degree in Computer Science, Engineering, or related field (or equivalent practical experience) - Strong problem-solving skills and attention to detail - Excellent communication and teamwork abilities LA International is a HMG approved ICT Recruitment and Project Solutions Consultancy, operating globally from the largest single site in the UK as an IT Consultancy or as an Employment Business & Agency depending upon the precise nature of the work, for security cleared jobs or non-clearance vacancies, LA International welcome applications from all sections of the community and from people with diverse experience and backgrounds. Award Winning LA International, winner of the Recruiter Awards for Excellence, Best IT Recruitment Company, Best Public Sector Recruitment Company and overall Gold Award winner, has now secured the most prestigious business award that any business can receive, The Queens Award for Enterprise: International Trade, for the second consecutive period.
Contractor job
Machine Learning Ops
Published on
MLOps
RAG
1 year
400-650 €
Paris, France
Hybrid
Je suis à la recherche pour un de nos clients d'un Machine Learning Ops. Le rôle consiste à garantir l'industrialisation, la fiabilisation, et la mise en production robuste et sécurisée de l'ensemble de nos modèles d'Intelligence Artificielle. Vous serez un pilier dans l'établissement des bonnes pratiques MLOps (Monitoring, Sécurité, Reproductibilité) et collaborerez en étroite collaboration avec les Data Scientists, Ingénieurs ML, le Product Owner, et l'équipe DevOps. Cette prestation est essentielle pour transformer la recherche en solutions opérationnelles à forte valeur ajoutée. Expertises requises dans le cadre de la réalisation de la prestation - 3 ans minimum d'expérience prouvée en développement/industrialisation IA/ML/DL ciblant des environnements de production. - Maitrise Avancée de Python et des librairies clés de Data Science/ML (e.g., NumPy, Pandas, Scikit-learn, PyTorch/TensorFlow). - Maîtrise de SQL pour l'accès et la manipulation des sources de données. - Pipeline MLOps et Outils : - Conception et Implémentation de Pipelines CI/CD dédiés aux modèles ML (GitLab CI ou équivalent), incluant le versioning des modèles et des datasets. - Conteneurisation Maîtrisée : Capacité à packager, déployer et maintenir des services IA via Docker. - Tracking et Registre de Modèles : Expérience obligatoire avec des outils de gestion du cycle de vie des modèles comme MLflow ou équivalent (p. ex. Comet ML). - Expertise Modèles de Langage (LLM/NLP) - Maîtrise de l'architecture RAG (Retrieval-Augmented Generation) et de son industrialisation. - Mise en place et intégration d'outils d'orchestration de LLM (e.g., LangChain/LangSmith, Semantic Kernel, ou équivalent) dans un contexte de production. - Cloud et Déploiement : Maîtrise avérée d'un Cloud Provider avec une expérience significative en déploiement de services serverless ou conteneurisés - Optimisation et Feedback : capacité à intégrer des boucles de feedback continu pour l'amélioration des modèles (Monitoring de la dérive, Retraining automatique, concepts de Human-in-the-Loop). C ompétences souhaitées : - Orchestration et Scalabilité : expérience pratique du déploiement de charges d’activité IA sur Kubernetes (K8s) et des concepts d'opérateurs MLOps (KubeFlow, Argo). - Expérience dans la mise en place de tests de performance et de montée en charge spécifiques aux services d'inférence ML/LLM (benchmarking, stress testing, choix du hardware). - Techniques de Modélisation Avancées : - Connaissance des techniques d'optimisation de modèles pour la production (Quantization, Distillation, Pruning) ou de Fine-Tuning/PEFT (LoRA). - Expérience en Computer Vision (déploiement de modèles de détection/classification) ou en SLM (Small Language Models). - Qualité et Assurance IA : - Mise en œuvre de métriques d'évaluation non-traditionnelles pour les LLM (e.g., AI as a Judge, évaluation du Hallucination Rate, Grounding Score).
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- Taxes and rules invoicing an American company from UK
- Key Topics and Preparation Strategies for the Salesforce Data Architect Certification
- Advice on starting up as a freelance
- What are the main phases of Game Development?
- most effective way to design responsive web pages ?
- How do you choose a good app development agency
Jobs by city
Jobs by country
18 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k