Find your next tech and IT Job or contract role.

Your search returns 89 results.
Contractor

Contractor job
Mission : Machine Learning / Generative AI

Published on
AI
Machine Learning

12 months
550-700 €
Paris, France
Hybrid
Je recherche pour un client un Machine Learning Engineer avec une forte expertice en IA. Missions : Au Sein de l’équipe Data, vous contribuerez au déploiement d’algorithmes de Machine Learning / Generative AI sur la data plateforme (Google Cloud Platform). En collaboration avec le responsable Data, les Product Owners Data et les équipes business, vous serez impliqué(e) dans l’ensemble du processus de réflexion et de déploiement des solutions IA/ML et aurez pour missions : Le Machine Learning doit maîtriser la plateforme Vertex de Google Cloud Platform (GCP), capable de coder, packager et industrialiser des modèles IA.
Contractor

Contractor job
Responsable Strategie Data / IA senior

Published on
AI

1 year
400-600 €
Ile-de-France, France
Localisation : Hauts-de-Seine Expérience : 7 an et plus Mission : 1 an renouvelable Spécialités technologiques : Intelligence artificielle Big Data Description et livrables de la prestation : Contexte : Un grand groupe français souhaite accélérer un programme transverse Data & IA visant à mieux coordonner plusieurs entités internes expertes (data, IA, plateformes, industrialisation) et à renforcer la cohérence globale de la filière. Des actions ont déjà été engagées (gouvernance, premiers chantiers, animation du collectif), et le groupe veut désormais structurer davantage et passer à l’échelle : clarifier le positionnement, harmoniser les pratiques, renforcer la capacité à travailler “d’une seule voix”, et améliorer l’efficacité de bout en bout (de l’offre au déploiement). Objectifs de l’appel d’offre : - Renforcer l’alignement entre entités contributrices (offres, priorités, modes opératoires, gouvernance). - Accélérer les synergies opérationnelles et business (offres conjointes, réponses coordonnées, passage à des engagements plus ambitieux). -Définir/mettre à jour une roadmap 2025–2026 et sécuriser l’exécution via une gouvernance robuste. -Structurer une stratégie marketing & communication (messages, visibilité, preuves, supports), incluant une réflexion sur une architecture de marque type “marque ombrelle” + déclinaisons, sans logique de fusion. -Renforcer l’animation “collectif” et la capitalisation (veille, retours d’expérience, publications, démarche à impact / IA responsable). Rôle attendu du prestataire : -Le prestataire intervient comme pilote et facilitateur du programme, à l’interface entre direction, sponsors, et entités contributrices : -Pilotage / PMO de programme : cadrage, planification, suivi des chantiers, animation des rituels, préparation/animation des comités, gestion des actions et décisions. -Structuration de l’offre : formalisation d’une offre de service cohérente, lisible et réplicable, articulation des contributions des différentes entités. -Activation des synergies : mise en place de mécanismes concrets (process, coordination, “passage de relais”, construction d’offres croisées, consolidation des retours terrain). -Marketing & communication opérationnels : plan de communication, contenus, kits de présentation, éléments de langage, valorisation des réalisations et cas d’usage. -Rayonnement & animation de l’expertise : cadrer une dynamique de type “lab/collectif” (veille, publications, événements internes/externes, démarche à impact). Livrables attendus : -Roadmap 2025–2026 (priorités, jalons, chantiers, dépendances) + cadre de pilotage associé. -Dispositif de gouvernance : comitologie, rituels, responsabilités, tableaux de suivi et reporting. -Plan marketing & communication : objectifs, messages, cibles, canaux, calendrier, contenus. -Kit de communication & kit commercial : pitchs, trames, supports, éléments de langage, preuves, cas d’usage / retours d’expérience. -Reporting périodique (ex. trimestriel) : avancement, synergies réalisées, points de blocage, recommandations. -Synthèse annuelle : bilan, impacts, perspectives et axes de développement. Expertise souhaitée : - Expérience avérée en accompagnement de programmes de transformation Data & IA - Compétences en marketing stratégique, gouvernance et pilotage d’écosystèmes complexes - Capacité à travailler en contexte multi-entités et à animer la coopération interfiliales - Qualité méthodologique et lisibilité de la proposition - Dynamique, leadership - Expérience en grands groupes Mobilité : Mission Full Time hybride : 2 à 3 jours sur site
Contractor

Contractor job
Expert Cybersécurité – GenAI / Azure

Published on
AI
Azure
Cybersecurity

3 years
400-840 €
Fontenay-sous-Bois, Ile-de-France
Hybrid
Nous recherchons un Expert Cybersécurité spécialisé GenAI afin d’accompagner une direction sécurité sur les sujets IA, Cloud et protection des données. Assurer la cybersécurité des projets et plateformes GenAI Définir les règles de sécurité autour des technologies : Microsoft 365, Azure, Copilot, Power Platform, Azure ML Produire les dossiers de sécurité : risques, contre-mesures, blueprints, recommandations Accompagner les équipes projets et centres de compétences (architecture, normes, standards) Réaliser des revues de sécurité du code et des livrables techniques Définir des KPI de gouvernance AI et des tableaux de pilotage des risques
Fixed term

Job Vacancy
Lead QA engineers (AI)

Published on

6 months
London Borough of Croydon, United Kingdom
Remote
Role: Ai Tester Rate: Inside IR35 Location: Remote with occasional travel to Croydon Duration: 6 - months initially SC Clearance or Eligible Job Spec for AI Tester: -Strong understanding of machine learning concepts , algorithms and deep learning models to effectively test AI applications. -Strong understanding of use cases such as classification, text generation, text summarisation. -Good understanding of data quality and pipelines(Data and ML Pipelines) -Software testing experience with focus on AI testing , AI test planning including creation of AI test strategies and test plans. -Experience with testing Generative AI and Natural Language Processing(NLP) systems. -Experience in model evaluation and model testing. -Experience with model stacking and model integration testing of AI Machine Learning models for Quality, Robustness, and Performance. -Experience of Machine Learning testing for anomaly detection using Python libraries -Familiarity with AI frameworks and tools like TensorFlow, Pytorch, Keera or similar. -Proficiency in programming languages such as Python, Java or others used in AI. -Experience testing with models such as BERT, Meta LLAMA and XGBOOST. -Strong understanding of model evaluations including model overfitting and underfitting. -Experience with API testing on endpoints and data exchange formats -Experience with version control systems like GIT to manage and track changes to AI codebase. -Familiarity with metrics related to model classifications and an ability to analyse dashboard provided by cloud native services. -Understanding of cloud computing platforms like AWS and Azure. -Effective communication to work collaboratively with cross functional teams including developers and data scientists. Key AI areas & models used in Automation Centre: -Azure models specific to Classification : XGBOOST -AWS Sagemaker specific to Summarisation : Meta LLAMA 30B -Hugging face models on Azure -BERT for text generation or data creation LA International is a HMG approved ICT Recruitment and Project Solutions Consultancy, operating globally from the largest single site in the UK as an IT Consultancy or as an Employment Business & Agency depending upon the precise nature of the work, for security cleared jobs or non-clearance vacancies, LA International welcome applications from all sections of the community and from people with diverse experience and backgrounds. Award Winning LA International, winner of the Recruiter Awards for Excellence, Best IT Recruitment Company, Best Public Sector Recruitment Company and overall Gold Award winner, has now secured the most prestigious business award that any business can receive, The Queens Award for Enterprise: International Trade, for the second consecutive period.
Permanent

Job Vacancy
Lecturer in Computing (HE) (Data Science and AI)

Published on

£38,784-43,482
Birmingham, United Kingdom
Job Title: Lecturer in Computing (HE) (Data Science and AI) Location: Birmingham Salary: £38,784 - £43,482 per annum - AC2 Job type: Permanent, Full-time / Part-time UCB is an equal opportunities employer. We are TEF rated Silver, with a Good Ofsted rating. The Role: Ready to inspire the next generation of tech professionals? Join our growing Computing Department and play a key role in shaping the future of Higher Education. Join our academic team and be part of our growth! As a Lecturer, you'll deliver inspiring and inclusive teaching that supports all students in achieving their full potential. This role will focus on teaching a range of Data Science and AI related modules on our HE programmes , where you'll help shape and guide future leaders in the field. You will prioritise practical application and demonstration over theoretical instruction, ensuring students gain real-world skills and experience. Why University College Birmingham? Growing Department: Be part of a team that's thriving and expanding every year. Supportive & Inclusive: Join a collaborative, diverse environment. Career Development : Access ongoing professional growth opportunities. Industry Connections: Work with industry partners, bringing real-world learning into the classroom. Benefits: Generous allocation of annual leave 38 days' paid leave per year 12 Bank Holidays & Concessionary Days Excellent Teachers' Pension Scheme Employer Contributions - 28.6% Subsidised private healthcare provided by Aviva including a Digital GP Service. Employee Assistance Programme inclusive of counselling services, financial wellbeing support and bereavement support Annual health MOTs with our Registered Nurse Excellent staff development opportunities including professional qualification sponsorship A variety of salary sacrifice schemes including technology and cycle. Heavily-subsidised on-site car parking in central Birmingham Free on-site gym membership Extra Information: All applicants for employment at the University will be expected to demonstrate an understanding of the principles of Safeguarding and the PREVENT agenda in the context of further and higher education. Closing Date - Sunday 11 January 2026. Interview Date - Tuesday 27 January 2026. Please click APPLY to be redirected to our website to complete an application form. Candidates with experience or relevant job titles of; Data Science Lecturer, AI Lecturer, Computing Lecturer, Tech Lecturer, Computing Tutor, Computing Teacher, Cloud Technician, IT Support Engineer, IT Service Engineer, Service Desk Technician, IT Support Technician, Cloud Support Engineer, Support Technician, 1st Line Support Engineer, IT Support, IT Systems Support may also be considered for this role.
Contractor

Contractor job
Consultant(e) AI Scientist & Agentique

Published on
BigQuery
Google Cloud Platform (GCP)
IAM

6 months
Paris, France
Hybrid
Missions Développer et structurer du code Python de qualité (tests, environnements, API). Construire des pipelines IA autour de modèles LLM (Large Language Models). Mettre en œuvre des systèmes RAG (Retrieval Augmented Generation) pour connecter l’IA aux données internes. Concevoir des agents IA (planification, outils, actions) avec des frameworks spécialisés. Déployer les solutions sur Google Cloud Platform et ses services IA (Vertex AI). Intégrer l’IA dans des environnements de production : authentification, monitoring, connecteurs métier. Collaborer avec les équipes data, produit et engineering pour industrialiser les solutions.
Contractor

Contractor job
Ingénieur Data Ops - IA GEN - Azure (H/F)

Published on
Azure
Azure AI Foundry

6 months
Lille, Hauts-de-France
Hybrid
TEKsystems recherche pour le compte de son client : Un(e) Ingénieur Data Ops : Le rôle couvre notamment : La mise en place d’une plateforme d’IA générative (Azure AI Foundry) ; L’industrialisation des flux et processus DataOps ; La mise en place d’API sécurisées via Azure API Management ; L’automatisation des déploiements à l’aide de GitLab CI/CD ; Le développement en Python ; La mise en place de la traçabilité, de l’observabilité et de la gouvernance des usages IA. Le contexte est structurant, très exposé en interne, avec de la construction from scratch, de l’architecture, de l’industrialisation et un vrai rôle de référent technique sur la GenAI.
Contractor

Contractor job
Cloud GenAI Architect h/f

Published on
Cloud
Generative AI

3 months
450-760 €
Paris, France
Hybrid
Contribuer aux travaux d’architecture d’entreprise (EA) au niveau Groupe. Participer à la définition et à l’évolution du Cloud & GenAI Architecture Blueprint. Apporter une expertise transversale sur les technologies Cloud (Azure / GCP / AWS) et les approches GenAI (LLM, RAG, vector DB, sécurité, gouvernance). Évaluer les solutions, produire des synthèses, recommandations et documents d’architecture. Interagir avec les équipes globales : IT Strategy, Cloud, Data, Security, métiers. Vulgariser et synthétiser les enjeux pour les dirigeants et parties prenantes.
Contractor

Contractor job
Consultant·e senior Metadata & Contenus

Published on
Data analysis
Project management

4 months
580-640 €
Paris, France
Hybrid
Contexte Mission d’étude au bénéfice d’un client (organisation de presse – anonymisée), sans prestation de développement à ce stade. Coordination avec la DSI en charge des métadonnées. Échanges préalables déjà tenus ; la présente fiche formalise le périmètre à présenter avant contractualisation. Interlocuteurs et coordination Côté client : DSI en charge des métadonnées. Demande associée : partage des coordonnées des personnes clés côté prestataire pour une présentation du périmètre de mission avant formalisation. Objectif de planification Cible de chiffrage : avant Noël. Démarrage envisagé : début 2026, sous réserve de validation par la DSI. Objectifs « high level » de la mission (phase initiale) Analyse concurrentielle des métadonnées : comparaison [Client – organisation de presse] vs Reuters, AP, et autres acteurs à déterminer. Analyse des besoins clients en metadata dans leurs systèmes CMS / DAM / MAM, avec un focus spécifique sur les usages « AI‑friendly ». Recommandations d’actions. Description détaillée du besoin 1) Analyse concurrentielle des métadonnées Construire une grille de comparaison couvrant : modèles de métadonnées (schéma, champs obligatoires/optionnels), taxonomies/ontologies, politiques de nommage, qualité/complétude, mécanismes d’identifiants, historisation/versioning, exposition via APIs, et modalités de licence/usage. Cadrer les sources publiques et matériaux accessibles des acteurs ciblés (Reuters, AP, autres à confirmer) et expliciter les limites éventuelles. Évaluer l’alignement/déviations du [Client – organisation de presse] par rapport aux pratiques observées, avec exemples représentatifs. 2) Besoins clients metadata dans CMS / DAM / MAM Conduire des entretiens structurés avec un panel représentatif de clients/intégrateurs (rôles : équipes CMS, responsables DAM/MAM, data/AI) pour cartographier les besoins par parcours : ingest → édition → publication → réutilisation. Identifier les champs et structures « AI‑friendly » prioritaires (désambiguïsation, liens entité‑événement, timestamps normalisés, droits/licensing, source, provenance) et les contraintes d’ingestion/export (formats, payloads, latence, webhooks). Formaliser les attentes d’intégration : modèles d’API (REST/GraphQL), filtres, pagination, recherche/facettes, webhooks, documentation attendue, exemples de réponses, politiques de versioning et SLA de fraîcheur/qualité. 3) Recommandations d’actions Produire des options de convergence par paliers (quick wins vs chantiers structurants), avec impacts estimés sur qualité des métadonnées, réutilisabilité, et compatibilité IA. Proposer une trajectoire de normalisation (champ par champ / structure par structure), des règles de gouvernance (dictionnaire, contrôles automatiques, métriques de complétude), et les prérequis organisationnels. Préparer le chiffrage et les hypothèses associées, adaptés à la cible « avant Noël » pour décision de lancement début 2026. Périmètre de la phase initiale Cadrage et restitution du périmètre aux parties prenantes identifiées par la DSI Metadata. Prise en compte des échanges précédents comme base de travail. Inclusion des trois volets listés dans les objectifs « high level ». Hypothèses et dépendances Validation interne DSI nécessaire pour enclencher un démarrage début 2026. Identification et disponibilité des personnes clés côté prestataire et côté [Client – organisation de presse] pour la présentation de cadrage. Livrables attendus (alignés sur les objectifs « high level ») Restitution d’analyse concurrentielle métadonnées [Client – organisation de presse] vs acteurs cités. Synthèse des besoins clients metadata dans CMS / DAM / MAM, avec attention aux usages « AI‑friendly ». Recommandations d’actions.
Contractor
Permanent

Job Vacancy
Développeur Salesforce à Niort

Published on
Salesforce Sales Cloud

2 years
49k-53k €
400-510 €
Niort, Nouvelle-Aquitaine
Hybrid
Contexte de la mission Le programme porte l’enjeu stratégique de transformation de la relation client Dans un environnement complexe, ce projet de mise en place du CRM SalesForce s’appuie sur les principes de l’agilité à l’échelle issus du Framework « SAFe ». Il s’agit de construire et mettre à disposition des marques des fonctionnalités du CRM qui s’appuie sur Salesforce. Les principaux enjeux 2026 sont la sécurisation du déploiementa MEV du réseau et la mise en oeuvre de nouvelles fonctionnalités pour les usages Objectifs et livrables La Société devra fournir les prestations suivantes : Connaissances Techniques: Apex, SOQL, LWC, Python, Aura, Web Development, Flow, Visibilty Outils: Copado, GIT, JIRA Connaissances fonctionnelles: Sales Cloud, Service Cloud, Community Cloud, Data Model, Data Management, FSC, Global Admin, Sécurité (Visibilité, accès données), Templates Localisation: Niort Déplacements possible sur les sites(démo fin sprint, PI Planning,...)
Contractor

Contractor job
Data Engineer/ Expert GCP

Published on
BigQuery
Cloud
Data science

12 months
530 €
Toulouse, Occitania
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Contractor
Permanent

Job Vacancy
Développeur Senior IA Générative & Systèmes Agentiques (Gen AI / Agentic AI) sur Guyancourt

Published on
AI
GenAI
Large Language Model (LLM)

6 months
Guyancourt, Ile-de-France
Hybrid
Je recherche pour un de nos clients un Développeur Senior IA Générative & Systèmes Agentiques (Gen AI / Agentic AI) sur Guyancourt Responsabilités Clés • Développement Expert & Maintien: o Développer des agents intelligents capables d’agir de manière autonome en utilisant l’approche Agentic AI. Ces agents doivent pouvoir utiliser des outils externes ou interagir avec d’autres agents pour accomplir des tâches complexes. (API externes, des applications basées sur le Model Context Protocol (MCP) ou d’autres services. o Développer des applicatifs permettant la consommation des Agents et algorithmes aux utilisateurs finaux avec de la création de front spécifiques o Mettre en place des pipelines robustes pour l'alimentation des LLMs/Agents avec les solutions Azure, Snowflake et Databricks (RAG, Fine-Tuning). o Assurer un support dans la mise en production, la supervision des modèles/agents et la résolution des problèmes techniques éventuels. Compétences spécifiques (Gen AI, Agentic AI, MCP) • IA générative (Gen AI) : Très bonne compréhension des modèles génératifs (GPT, modèles de diffusion, etc.) et de leurs cas d’usage. Savoir exploiter des LLM (via API ou fine-tuning) pour des tâches de génération de texte, de code ou d’images. Compréhension des limitations/biais des modèles génératifs. • Architecture et orchestration : Aptitude à architecturer des solutions combinant plusieurs composants d’IA et Cloud. Compréhension de l’orchestration d’agents, de la gestion du contexte (par ex. partage d’état ou de mémoire entre agents via MCP), et des enjeux de performance/coût dans un système à agents multiples. • Architecture de Solution & POC: o Conception de POCs : Mener l'exploration et la conception d'Architectures de POC autour des usages de la Gen AI et des systèmes Agentiques o Prise de Responsabilités Architecturale : Porter les choix techniques clés pour une validation avec équipe centrale architecture (stack d'agents, orchestration, modèles LLM, intégration Cloud Azure) pour garantir la scalabilité, la sécurité et la performance des solutions futures. o Optimisation Cloud : Conseiller sur les meilleures pratiques d'utilisation des services Azure pour les charges de travail d'IA Générative (coût, performance, résilience). Compétences Requises - Techniques • Maîtrise Cloud Avancée (Azure) : Maîtrise de Microsoft Azure (services cognitifs,Azure AI Foundry, Azure Machine Learning, Azure Functions, etc.) pour déployer des agents et développer des applications cloud natives. Une certification Azure (ou équivalent) serait un atout. • Développement Front Web Utilisateur : Compétence en Javascript, React nécessaire pour créer des font applicatifs d’usages des outils IA créés • Qualité logicielle : Connaissance des bonnes pratiques de développement logiciel (code review, tests unitaires, gestion de version avec Git, méthodologies Agile). • Intégration de systèmes : Compétences en développement d’API REST, MCP, A2A ou de microservices pour consommer et exposer les modèles et agents IA dans des applications. • Expertise en Python et maîtrise des librairies Gen AI (Hugging Face, Transformers, OpenAI API). • Systèmes Agentiques : Maîtrise des frameworks d'agents AI (LangChain, AutoGen) et de l'implémentation du Model Context Protocol (MCP) ou A2A. • Évaluation d'Agents : Compétence dans la mise en œuvre de tests unitaires, fonctionnels et de performance pour les systèmes autonomes. • Ingénierie de Données Moderne et machine learning : Une expérience avec l'écosystème Databricks et/ou Snowflake dans un contexte d'IA (Snowpark, Lakehouse, Vector DBs) sera un plus. Soft skills attendus • Esprit d’équipe et communication : Capacité avérée à travailler en équipe pluridisciplinaire et à communiquer efficacement avec des profils variés (équipes métier, IT, data). • Résolution de problèmes : le candidat doit faire preuve de réflexion analytique pour ajuster les approches, diagnostiquer les bugs des modèles/agents et améliorer en continu les solutions IA. • Curiosité et apprentissage continu :Le domaine de l’IA évolue très vite (nouveaux modèles, nouveaux outils chaque mois) : le candidat doit assurer une veille technologique et monter en compétence rapidement sur de nouveaux sujets. • Adaptabilité : Capacité à adapter les solutions développées suite aux retours des utilisateurs ou à l’évolution des contraintes (par exemple, ajuster un agent en fonction de nouvelles politiques de sécurité ou de nouvelles API disponibles). • Sensibilité à la Gouvernance (Registries, MLOps) et l'Évaluation des systèmes agentiques en production Démarrage: 02/01/2026 Durée: 6 mois renouvelables
Contractor

Contractor job
Data Automation Engineer Confirmé

Published on
CI/CD
Dataiku
DevOps

6 months
470-550 €
Ile-de-France, France
Hybrid
Dans le cadre de notre croissance stratégique, nous recherchons un Data / AI Engineer senior (Dataiku) pour rejoindre l’équipe Group Data Office , au service des métiers. Le consultant jouera un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via l’automatisation agentique des processus, et l’aide à la prise de décisions stratégiques. Sa contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, il interviendra sur l’ensemble du cycle projet — de l’idéation et du prototypage rapide jusqu’au déploiement en production. Objectifs et livrables Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et concevoir des solutions data adaptées. Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. Co-construire des prototypes rapides avec les utilisateurs métiers pour valider les hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, avec un fort accent sur la qualité des données, la maintenabilité et la performance. Contribuer aux processus de livraison et de déploiement continus en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Participer à l’évolution de la stack data et promouvoir les bonnes pratiques au sein de l’équipe. Compétences techniques Expérience confirmée dans la manipulation de grands volumes de données en Python , avec des bibliothèques telles que Pandas ou Polars . Solide compréhension des principes de l’ingénierie logicielle : code propre, gestion de versions, tests et automatisation. Expérience avec les frameworks LLM et les outils d’orchestration d’agents IA. Maîtrise du prompt engineering , de la génération augmentée par la recherche (RAG) et de l’utilisation des modèles de fondation. Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. Expérience de l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. Connaissance des outils d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. Expérience des outils d’orchestration de pipelines de données, notamment Dataiku . Familiarité avec le DevOps , les pipelines CI/CD et les déploiements en environnement de production.
Contractor

Contractor job
Data Engineer - Gen AI - Finance (h/f)

Published on

12 months
600-700 €
75008, Paris, Île-de-France
Hybrid
Vous êtes un ingénieur de données expérimenté, spécialisé dans l'IA générique et Python ? emagine vous offre l'opportunité de rejoindre une équipe dirigée par emagine qui fournit des solutions basées sur l'IA dans un environnement bancaire international. Are you an experienced Data Engineer with expertise in Gen AI and Python? emagine has an opportunity for you to join an emagine-led team delivering AI-driven solutions within a global banking environment. You will play a key role in building on-prem AI tools that process and model large volumes of unstructured data from sources such as legal documents and financial policies. This is a hands-on role requiring strong technical skills and the ability to design efficient data pipelines for Gen AI applications. Main Responsibilities Design and implement data ingestion pipelines for structured and unstructured data. Apply techniques such as vectorization and chunking to prepare data for LLM-based solutions. Develop Python-based tools for large-scale data processing and storage manipulation. Collaborate with Data Scientists and Business Analysts to ensure data readiness for AI models. Key Requirements 5+ years of experience as a Data Engineer in complex environments. Strong expertise in Python and experience with data modelling for AI applications. Familiarity with vectorization, chunking, and handling large datasets. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Fluent in English Nice to Have Exposure to legal or procedure-focused applications. Other Details: This position is Hybrid – on-site minimum 3 days per week in Paris 8th arrondissement . Apply with your latest CV or reach out to Brendan to find out more.
Contractor

Contractor job
Tech Lead GenAI - Azure

Published on
Azure AI Foundry
Generative AI

3 years
550 €
Paris, France
Hybrid
Besoin urgent, nous pouvons confirmer votre intégration ce mois-ci. Objectifs principaux : Répondre aux besoins des clients internes en matière de solutions GenAI. Couvrir un large panel de métiers industriels (techniciens, ouvriers, ingénieurs mécaniques, etc.). Développer et maintenir des solutions IA scalables, industrialisables et alignées avec les enjeux business. Contribuer à l’intégration de l’IA dans les processus d’ingénierie (Engineering + AI Engineering). Rôle et responsabilités Tech Lead IA : rôle fédérateur, garant des bonnes pratiques, de l’architecture et de la vision technique. Conception d’architectures logicielles IA robustes, sécurisées et adaptées à un contexte industriel. Construction de pipelines de données et modèles IA exploitables à grande échelle. Participation active à l’intégration des solutions dans les environnements existants (IT/OT). Accompagnement des équipes techniques sur la compréhension, l’usage et les limites de la GenAI. Relation client interne & compréhension métier Identifier et analyser les besoins des clients finaux (techniciens, ingénieurs, opérateurs, etc.). Traduire les problématiques terrain en cas d’usage IA concrets et pertinents. Assurer un suivi régulier avec les parties prenantes pour affiner les besoins et proposer les bonnes solutions. Adapter les solutions aux réalités du domaine industriel et ferroviaire (sécurité, robustesse, contraintes opérationnelles). Collaboration & intégration dans l’équipe S’intégrer efficacement dans une équipe pluridisciplinaire (ingénierie, IT, data, production). Maintenir une communication fluide, transparente et pédagogique avec les équipes. Être reconnu comme un référent technique, accessible et proche des équipes. Travailler avec des collègues basés aux US, en Espagne ou dans d’autres pays (collaboration internationale).
Permanent

Job Vacancy
Microsoft AI Engineer / Azure Artificial Intelligence Engineer

Published on

£50k-90k
EC3V 3LA, City of London, England, United Kingdom
Microsoft AI Engineer / Azure Artificial Intelligence Engineer This is a new and exclusive opportunity for a AI Engineer / Azure Artificial Intelligence Engineer to join a thriving STEM business as they are growing their AI Engineer / Azure Artificial Intelligence centre of excellence Role details Title: AI Engineer / Azure Artificial Intelligence Engineer Location: can be either London or Glasow, and expectation is 1 or 2 days a week in the office with home working hybrid flexibility Permanent roles only, salary £60,000- £90,000 dependant on location and experience Technical stack: Azure AI solutions, including Azure OpenAI Service, Azure Cognitive Services, and Azure Machine Learning Requirements Extensive experience with Azure AI solutions, programming expereince (Python, C#, or Java) Thisis a brilliant new role, and an opportunity to join a business who are genuinley growing this team to be a future centre of excellence for the country. They are also a very supportive home working flexible working environment As an AI Engineer specialising in Azure Services, you will be responsible for designing, implementing, and maintaining AI solutions within our organisation. Leveraging the Azure platform, including Azure OpenAI, Azure Vision and other Azure AI services, you will develop scalable, efficient, and effective AI models and systems to address business challenges, enhance decision-making, and drive innovation. Collaboration with cross-functional teams to integrate AI capabilities into our products and services will be a key part of your role. This is an opportunity to join a high functioning relaxed team that will significantly contribute to the digital transformation this STEM business Role requirements Strong Programming Skills: Proficiency in programming languages such as Python, C#, or Java, with a deep understanding of software development principles. Extensive experience with Azure AI solutions, including Azure OpenAI Service, Azure Cognitive Services, and Azure Machine Learning. Familiarity with Azure Databricks is a plus. Understanding of CI/CD pipelines, containerization (Docker, Kubernetes), and experience implementing MLOps practices using Azure DevOps. Qualifications such as the following would be advantageous, however not necessary: Microsoft Azure AI Engineer Fundamentals / Associate Microsoft Azure Data Engineer Microsoft Data Scientist Associate For more information, and the chance to be considered, please do send through a cv- good luck To find out more about Huxley, please visit Huxley, a trading division of SThree Partnership LLP is acting as an Employment Business in relation to this vacancy | Registered office | 8 Bishopsgate, London, EC2N 4BQ, United Kingdom | Partnership Number | OC387148 England and Wales
89 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us