The job you are looking for has been deleted or has expired.
Here are some jobs that could be of interest.
Find your next tech and IT Job or contract role.
Your search returns 86 results.
Contractor job
Mission : Machine Learning / Generative AI
Published on
AI
Machine Learning
12 months
550-700 €
Paris, France
Hybrid
Je recherche pour un client un Machine Learning Engineer avec une forte expertice en IA. Missions : Au Sein de l’équipe Data, vous contribuerez au déploiement d’algorithmes de Machine Learning / Generative AI sur la data plateforme (Google Cloud Platform). En collaboration avec le responsable Data, les Product Owners Data et les équipes business, vous serez impliqué(e) dans l’ensemble du processus de réflexion et de déploiement des solutions IA/ML et aurez pour missions : Le Machine Learning doit maîtriser la plateforme Vertex de Google Cloud Platform (GCP), capable de coder, packager et industrialiser des modèles IA.
Contractor job
Expert Cybersécurité – GenAI / Azure
Published on
AI
Azure
Cybersecurity
3 years
400-840 €
Fontenay-sous-Bois, Ile-de-France
Hybrid
Nous recherchons un Expert Cybersécurité spécialisé GenAI afin d’accompagner une direction sécurité sur les sujets IA, Cloud et protection des données. Assurer la cybersécurité des projets et plateformes GenAI Définir les règles de sécurité autour des technologies : Microsoft 365, Azure, Copilot, Power Platform, Azure ML Produire les dossiers de sécurité : risques, contre-mesures, blueprints, recommandations Accompagner les équipes projets et centres de compétences (architecture, normes, standards) Réaliser des revues de sécurité du code et des livrables techniques Définir des KPI de gouvernance AI et des tableaux de pilotage des risques
Job Vacancy
Lead QA engineers (AI)
Published on
6 months
London Borough of Croydon, United Kingdom
Remote
Role: Ai Tester Rate: Inside IR35 Location: Remote with occasional travel to Croydon Duration: 6 - months initially SC Clearance or Eligible Job Spec for AI Tester: -Strong understanding of machine learning concepts , algorithms and deep learning models to effectively test AI applications. -Strong understanding of use cases such as classification, text generation, text summarisation. -Good understanding of data quality and pipelines(Data and ML Pipelines) -Software testing experience with focus on AI testing , AI test planning including creation of AI test strategies and test plans. -Experience with testing Generative AI and Natural Language Processing(NLP) systems. -Experience in model evaluation and model testing. -Experience with model stacking and model integration testing of AI Machine Learning models for Quality, Robustness, and Performance. -Experience of Machine Learning testing for anomaly detection using Python libraries -Familiarity with AI frameworks and tools like TensorFlow, Pytorch, Keera or similar. -Proficiency in programming languages such as Python, Java or others used in AI. -Experience testing with models such as BERT, Meta LLAMA and XGBOOST. -Strong understanding of model evaluations including model overfitting and underfitting. -Experience with API testing on endpoints and data exchange formats -Experience with version control systems like GIT to manage and track changes to AI codebase. -Familiarity with metrics related to model classifications and an ability to analyse dashboard provided by cloud native services. -Understanding of cloud computing platforms like AWS and Azure. -Effective communication to work collaboratively with cross functional teams including developers and data scientists. Key AI areas & models used in Automation Centre: -Azure models specific to Classification : XGBOOST -AWS Sagemaker specific to Summarisation : Meta LLAMA 30B -Hugging face models on Azure -BERT for text generation or data creation LA International is a HMG approved ICT Recruitment and Project Solutions Consultancy, operating globally from the largest single site in the UK as an IT Consultancy or as an Employment Business & Agency depending upon the precise nature of the work, for security cleared jobs or non-clearance vacancies, LA International welcome applications from all sections of the community and from people with diverse experience and backgrounds. Award Winning LA International, winner of the Recruiter Awards for Excellence, Best IT Recruitment Company, Best Public Sector Recruitment Company and overall Gold Award winner, has now secured the most prestigious business award that any business can receive, The Queens Award for Enterprise: International Trade, for the second consecutive period.
Job Vacancy
Lecturer in Computing (HE) (Data Science and AI)
Published on
£38,784-43,482
Birmingham, United Kingdom
Job Title: Lecturer in Computing (HE) (Data Science and AI) Location: Birmingham Salary: £38,784 - £43,482 per annum - AC2 Job type: Permanent, Full-time / Part-time UCB is an equal opportunities employer. We are TEF rated Silver, with a Good Ofsted rating. The Role: Ready to inspire the next generation of tech professionals? Join our growing Computing Department and play a key role in shaping the future of Higher Education. Join our academic team and be part of our growth! As a Lecturer, you'll deliver inspiring and inclusive teaching that supports all students in achieving their full potential. This role will focus on teaching a range of Data Science and AI related modules on our HE programmes , where you'll help shape and guide future leaders in the field. You will prioritise practical application and demonstration over theoretical instruction, ensuring students gain real-world skills and experience. Why University College Birmingham? Growing Department: Be part of a team that's thriving and expanding every year. Supportive & Inclusive: Join a collaborative, diverse environment. Career Development : Access ongoing professional growth opportunities. Industry Connections: Work with industry partners, bringing real-world learning into the classroom. Benefits: Generous allocation of annual leave 38 days' paid leave per year 12 Bank Holidays & Concessionary Days Excellent Teachers' Pension Scheme Employer Contributions - 28.6% Subsidised private healthcare provided by Aviva including a Digital GP Service. Employee Assistance Programme inclusive of counselling services, financial wellbeing support and bereavement support Annual health MOTs with our Registered Nurse Excellent staff development opportunities including professional qualification sponsorship A variety of salary sacrifice schemes including technology and cycle. Heavily-subsidised on-site car parking in central Birmingham Free on-site gym membership Extra Information: All applicants for employment at the University will be expected to demonstrate an understanding of the principles of Safeguarding and the PREVENT agenda in the context of further and higher education. Closing Date - Sunday 11 January 2026. Interview Date - Tuesday 27 January 2026. Please click APPLY to be redirected to our website to complete an application form. Candidates with experience or relevant job titles of; Data Science Lecturer, AI Lecturer, Computing Lecturer, Tech Lecturer, Computing Tutor, Computing Teacher, Cloud Technician, IT Support Engineer, IT Service Engineer, Service Desk Technician, IT Support Technician, Cloud Support Engineer, Support Technician, 1st Line Support Engineer, IT Support, IT Systems Support may also be considered for this role.
Contractor job
Consultant(e) AI Scientist & Agentique
Published on
BigQuery
Google Cloud Platform (GCP)
IAM
6 months
Paris, France
Hybrid
Missions Développer et structurer du code Python de qualité (tests, environnements, API). Construire des pipelines IA autour de modèles LLM (Large Language Models). Mettre en œuvre des systèmes RAG (Retrieval Augmented Generation) pour connecter l’IA aux données internes. Concevoir des agents IA (planification, outils, actions) avec des frameworks spécialisés. Déployer les solutions sur Google Cloud Platform et ses services IA (Vertex AI). Intégrer l’IA dans des environnements de production : authentification, monitoring, connecteurs métier. Collaborer avec les équipes data, produit et engineering pour industrialiser les solutions.
Contractor job
Ingénieur Data Ops - IA GEN - Azure (H/F)
Published on
Azure
Azure AI Foundry
6 months
Lille, Hauts-de-France
Hybrid
TEKsystems recherche pour le compte de son client : Un(e) Ingénieur Data Ops : Le rôle couvre notamment : La mise en place d’une plateforme d’IA générative (Azure AI Foundry) ; L’industrialisation des flux et processus DataOps ; La mise en place d’API sécurisées via Azure API Management ; L’automatisation des déploiements à l’aide de GitLab CI/CD ; Le développement en Python ; La mise en place de la traçabilité, de l’observabilité et de la gouvernance des usages IA. Le contexte est structurant, très exposé en interne, avec de la construction from scratch, de l’architecture, de l’industrialisation et un vrai rôle de référent technique sur la GenAI.
Job Vacancy
Développeur Salesforce à Niort
Published on
Salesforce Sales Cloud
2 years
49k-53k €
400-510 €
Niort, Nouvelle-Aquitaine
Hybrid
Contexte de la mission Le programme porte l’enjeu stratégique de transformation de la relation client Dans un environnement complexe, ce projet de mise en place du CRM SalesForce s’appuie sur les principes de l’agilité à l’échelle issus du Framework « SAFe ». Il s’agit de construire et mettre à disposition des marques des fonctionnalités du CRM qui s’appuie sur Salesforce. Les principaux enjeux 2026 sont la sécurisation du déploiementa MEV du réseau et la mise en oeuvre de nouvelles fonctionnalités pour les usages Objectifs et livrables La Société devra fournir les prestations suivantes : Connaissances Techniques: Apex, SOQL, LWC, Python, Aura, Web Development, Flow, Visibilty Outils: Copado, GIT, JIRA Connaissances fonctionnelles: Sales Cloud, Service Cloud, Community Cloud, Data Model, Data Management, FSC, Global Admin, Sécurité (Visibilité, accès données), Templates Localisation: Niort Déplacements possible sur les sites(démo fin sprint, PI Planning,...)
Contractor job
Data Engineer/ Expert GCP
Published on
BigQuery
Cloud
Data science
12 months
530 €
Toulouse, Occitania
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Job Vacancy
Développeur Senior IA Générative & Systèmes Agentiques (Gen AI / Agentic AI) sur Guyancourt
Published on
AI
GenAI
Large Language Model (LLM)
6 months
Guyancourt, Ile-de-France
Hybrid
Je recherche pour un de nos clients un Développeur Senior IA Générative & Systèmes Agentiques (Gen AI / Agentic AI) sur Guyancourt Responsabilités Clés • Développement Expert & Maintien: o Développer des agents intelligents capables d’agir de manière autonome en utilisant l’approche Agentic AI. Ces agents doivent pouvoir utiliser des outils externes ou interagir avec d’autres agents pour accomplir des tâches complexes. (API externes, des applications basées sur le Model Context Protocol (MCP) ou d’autres services. o Développer des applicatifs permettant la consommation des Agents et algorithmes aux utilisateurs finaux avec de la création de front spécifiques o Mettre en place des pipelines robustes pour l'alimentation des LLMs/Agents avec les solutions Azure, Snowflake et Databricks (RAG, Fine-Tuning). o Assurer un support dans la mise en production, la supervision des modèles/agents et la résolution des problèmes techniques éventuels. Compétences spécifiques (Gen AI, Agentic AI, MCP) • IA générative (Gen AI) : Très bonne compréhension des modèles génératifs (GPT, modèles de diffusion, etc.) et de leurs cas d’usage. Savoir exploiter des LLM (via API ou fine-tuning) pour des tâches de génération de texte, de code ou d’images. Compréhension des limitations/biais des modèles génératifs. • Architecture et orchestration : Aptitude à architecturer des solutions combinant plusieurs composants d’IA et Cloud. Compréhension de l’orchestration d’agents, de la gestion du contexte (par ex. partage d’état ou de mémoire entre agents via MCP), et des enjeux de performance/coût dans un système à agents multiples. • Architecture de Solution & POC: o Conception de POCs : Mener l'exploration et la conception d'Architectures de POC autour des usages de la Gen AI et des systèmes Agentiques o Prise de Responsabilités Architecturale : Porter les choix techniques clés pour une validation avec équipe centrale architecture (stack d'agents, orchestration, modèles LLM, intégration Cloud Azure) pour garantir la scalabilité, la sécurité et la performance des solutions futures. o Optimisation Cloud : Conseiller sur les meilleures pratiques d'utilisation des services Azure pour les charges de travail d'IA Générative (coût, performance, résilience). Compétences Requises - Techniques • Maîtrise Cloud Avancée (Azure) : Maîtrise de Microsoft Azure (services cognitifs,Azure AI Foundry, Azure Machine Learning, Azure Functions, etc.) pour déployer des agents et développer des applications cloud natives. Une certification Azure (ou équivalent) serait un atout. • Développement Front Web Utilisateur : Compétence en Javascript, React nécessaire pour créer des font applicatifs d’usages des outils IA créés • Qualité logicielle : Connaissance des bonnes pratiques de développement logiciel (code review, tests unitaires, gestion de version avec Git, méthodologies Agile). • Intégration de systèmes : Compétences en développement d’API REST, MCP, A2A ou de microservices pour consommer et exposer les modèles et agents IA dans des applications. • Expertise en Python et maîtrise des librairies Gen AI (Hugging Face, Transformers, OpenAI API). • Systèmes Agentiques : Maîtrise des frameworks d'agents AI (LangChain, AutoGen) et de l'implémentation du Model Context Protocol (MCP) ou A2A. • Évaluation d'Agents : Compétence dans la mise en œuvre de tests unitaires, fonctionnels et de performance pour les systèmes autonomes. • Ingénierie de Données Moderne et machine learning : Une expérience avec l'écosystème Databricks et/ou Snowflake dans un contexte d'IA (Snowpark, Lakehouse, Vector DBs) sera un plus. Soft skills attendus • Esprit d’équipe et communication : Capacité avérée à travailler en équipe pluridisciplinaire et à communiquer efficacement avec des profils variés (équipes métier, IT, data). • Résolution de problèmes : le candidat doit faire preuve de réflexion analytique pour ajuster les approches, diagnostiquer les bugs des modèles/agents et améliorer en continu les solutions IA. • Curiosité et apprentissage continu :Le domaine de l’IA évolue très vite (nouveaux modèles, nouveaux outils chaque mois) : le candidat doit assurer une veille technologique et monter en compétence rapidement sur de nouveaux sujets. • Adaptabilité : Capacité à adapter les solutions développées suite aux retours des utilisateurs ou à l’évolution des contraintes (par exemple, ajuster un agent en fonction de nouvelles politiques de sécurité ou de nouvelles API disponibles). • Sensibilité à la Gouvernance (Registries, MLOps) et l'Évaluation des systèmes agentiques en production Démarrage: 02/01/2026 Durée: 6 mois renouvelables
Contractor job
Data Engineer - Gen AI - Finance (h/f)
Published on
12 months
600-700 €
75008, Paris, Île-de-France
Hybrid
Vous êtes un ingénieur de données expérimenté, spécialisé dans l'IA générique et Python ? emagine vous offre l'opportunité de rejoindre une équipe dirigée par emagine qui fournit des solutions basées sur l'IA dans un environnement bancaire international. Are you an experienced Data Engineer with expertise in Gen AI and Python? emagine has an opportunity for you to join an emagine-led team delivering AI-driven solutions within a global banking environment. You will play a key role in building on-prem AI tools that process and model large volumes of unstructured data from sources such as legal documents and financial policies. This is a hands-on role requiring strong technical skills and the ability to design efficient data pipelines for Gen AI applications. Main Responsibilities Design and implement data ingestion pipelines for structured and unstructured data. Apply techniques such as vectorization and chunking to prepare data for LLM-based solutions. Develop Python-based tools for large-scale data processing and storage manipulation. Collaborate with Data Scientists and Business Analysts to ensure data readiness for AI models. Key Requirements 5+ years of experience as a Data Engineer in complex environments. Strong expertise in Python and experience with data modelling for AI applications. Familiarity with vectorization, chunking, and handling large datasets. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Fluent in English Nice to Have Exposure to legal or procedure-focused applications. Other Details: This position is Hybrid – on-site minimum 3 days per week in Paris 8th arrondissement . Apply with your latest CV or reach out to Brendan to find out more.
Job Vacancy
Data Platform Product Manager - Très belle opportunité dans une Grande Maison française
Published on
AI
Apache Airflow
Data analysis
Paris, France
Hybrid
Data Platform Product Manager - Très belle opportunité dans une Grande Maison française Un de nos importants clients recherche un Data Platform Product Manager dans le cadre d'un CDI à Paris. Le Data Platform Product Manager a pour mission de structurer et piloter le portefeuille de produits de la plateforme data. Il développe l'équipe et le modèle opérationnel permettant d'orchestrer l'intake, la priorisation et le delivery. Il assure le suivi opérationnel, budgétaire et méthodologique du portefeuille en garantissant l’alignement avec le Data Office Management, et en maximisant l’adoption et la valeur pour le Data Office et la Maison. Véritable partenaire des leaders techniques de la Data Platform, des autres pôles du Data Office et des différentes filiales, vous alignez vision, roadmaps, budgets, SLO et accompagnez les Platform Product Owners dans la mise en œuvre des méthodologies et des outils pour atteindre leurs objectifs dans le respect des délais et des exigences de qualité de la Maison. Vous jouez un rôle clé dans la stratégie produit, la gestion des risques, et la diffusion d’une culture produit au sein de la Data Platform. Principales activités : Engagement opérationnel : Pilote le portefeuille de produits Data Platform en collaboration avec le Data Office Management et en appui aux responsables de scope. Consolide le reporting et tient le release calendar Data Platform. Orchestre l’intake et le triage avec priorisation valeur/risque/coût et séquencement des dépendances inter-produits et inter-équipes. Tient à jour les roadmaps et objectifs Data Platform en lien avec la direction Data Office. Met à jour et analyse les KPIs Data Platform. Alerte sur les écarts majeurs. Anime l'équipe Data Product Management. Coordonne les plannings, suit l’avancement et propose des arbitrages en cas de conflit de capacité. Met en place et diffuse le modèle opérationnel de delivery orienté produit : spécifications / user stories, critères d’acceptation, definion of ready/done, backlog management, move2run, etc. Accompagne l'équipe Run dans la mise à jour des SLA/SLO, leur suivi cross-équipes et les moyens mis en oeuvre pour l'amélioration continue. Assure la cohérence transverse notamment avec DevEx, Data Office Management, et Data Governance. Evite les duplications et aligne standards et conventions. Sollicite et équilibre les partenaires externes stratégiques. Suivi budgétaire : Assure le suivi des budgets produits et des indicateurs de performance en alertant immédiatement sur les écarts et en proposant des solutions pragmatiques adaptées à l'horizon de temps. Collabore avec le Data Office Management pour un pilotage financier rigoureux. déploie showback, prépare le chargeback, identifie les postes de dépense inefficients ou obsolètes et propose une stratégie pour y remédier. Outils & méthodologies : Déploie des outils de pilotage (roadmaps/objectifs, reporting, tableaux de bord, gestion documentaire). Propose les bons KPIs de suivi. Alimente les outils de BI pour automatiser et croiser. Garantit le respect des méthodologies produit & projet notamment pour le delivery et identifie les écarts. Anime l’amélioration continue (retours d’expérience, post-mortems, actions correctives). Profil recherché : Diplômé Bac+5 (école d’ingénieur, université ou équivalent) avec une Expérience confirmée en gestion de produits Data (data platform / analytics engineering / data products) dans des environnements complexes. Expérience requise en mise en place d'approche produit/agile pour le delivery, stratégie d'implémentation en continu (projets en cours), accompagnement de l'équipe, des partenaires et des stakeholders. Expérience confirmée en coordination multi-produits et reporting exécutif ; capacité à arbitrer et synchroniser des roadmaps. Solide culture Data & AI Platform : Datawarehouse cloud (Snowflake), dbt, Orchestration (OpCon/Airflow), Dataviz (Power BI), Observabilité, DevEx, FinOps, MLOps/LLM. Maîtrise des pratiques gouvernance technique (Catalog/Lineage, GDPR automation) et des SLO/SLA. Expérience confirmée de management de profils Product Owner / Product Manager en collaboration avec des équipes techniques. Excellente communication écrite et orale (FR/EN), leadership transverse en organisation matricielle, sens de la pédagogie et de l’accompagnement au changement. Si cette offre vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Contractor job
Tech Lead GenAI - Azure
Published on
Azure AI Foundry
Generative AI
3 years
550 €
Paris, France
Hybrid
Besoin urgent, nous pouvons confirmer votre intégration ce mois-ci. Objectifs principaux : Répondre aux besoins des clients internes en matière de solutions GenAI. Couvrir un large panel de métiers industriels (techniciens, ouvriers, ingénieurs mécaniques, etc.). Développer et maintenir des solutions IA scalables, industrialisables et alignées avec les enjeux business. Contribuer à l’intégration de l’IA dans les processus d’ingénierie (Engineering + AI Engineering). Rôle et responsabilités Tech Lead IA : rôle fédérateur, garant des bonnes pratiques, de l’architecture et de la vision technique. Conception d’architectures logicielles IA robustes, sécurisées et adaptées à un contexte industriel. Construction de pipelines de données et modèles IA exploitables à grande échelle. Participation active à l’intégration des solutions dans les environnements existants (IT/OT). Accompagnement des équipes techniques sur la compréhension, l’usage et les limites de la GenAI. Relation client interne & compréhension métier Identifier et analyser les besoins des clients finaux (techniciens, ingénieurs, opérateurs, etc.). Traduire les problématiques terrain en cas d’usage IA concrets et pertinents. Assurer un suivi régulier avec les parties prenantes pour affiner les besoins et proposer les bonnes solutions. Adapter les solutions aux réalités du domaine industriel et ferroviaire (sécurité, robustesse, contraintes opérationnelles). Collaboration & intégration dans l’équipe S’intégrer efficacement dans une équipe pluridisciplinaire (ingénierie, IT, data, production). Maintenir une communication fluide, transparente et pédagogique avec les équipes. Être reconnu comme un référent technique, accessible et proche des équipes. Travailler avec des collègues basés aux US, en Espagne ou dans d’autres pays (collaboration internationale).
Job Vacancy
AI Engineer / Ingénieur·e IA - Intégration & Déploiement
Published on
AI
API
CI/CD
12 months
Paris, France
Ingénieur IA | Python-RAG • Développement d’algorithmes : concevoir et développer des algorithmes d’apprentissage automatique (machine learning), d’apprentissage profond (deep learning) et d’autres techniques d’IA. • Analyse de données : collecter, nettoyer et analyser les données pour entraîner les modèles d’IA. • Optimisation des modèles : améliorer la précision et l’efficacité des modèles d’IA existants. • Intégration de solutions IA : intégrer les solutions d’IA dans les systèmes existants ou développer de nouvelles applications basées sur l’IA. • Recherche et innovation : mener des recherches pour explorer de nouvelles techniques et technologies en IA. • Collaboration interdisciplinaire : travailler avec des équipes multidisciplinaires, y compris des experts en données, des développeurs de logiciels et des chercheurs. • Veille technologique : suivre les avancées et les tendances dans le domaine de l’IA pour anticiper les évolutions et proposer des améliorations. • Documentation et reporting : rédiger des documents techniques, des rapports d’avancement et des publications scientifiques pour partager les résultats et les connaissances acquises. Profil Recherché BAC+4/+5 3 – 5 ans d’expérience en IA, Machine Learning ou Data Science Très bon niveau en Python & RAG, SQL, NoSQL
Contractor job
[MDO] Data & AI - Data Engineer (5 ans minimum)
Published on
Azure Data Factory
Azure Logic Apps
Databricks
1 year
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Hybrid
Data Engineer - Collecter, analyser et exploiter les données disponibles et pertinentes pour améliorer le pilotage des activités et identifier les leviers de création de valeur pour l'entreprise. - Aide aux équipes métier à développer, déployer et opérer les solutions pour permettre d’atteindre leurs objectifs. Principaux résultats attendus : • Les données pertinentes pour répondre aux besoins des utilisateurs sont identifiées, capturées et choisies • Le temps et les ressources/outils nécessaires à la gestion et à l'analyse des données sont optimisées. • Les données sont analysées et partagées dans un format accessible à tous grâce à des visualisations de données • Les activités métier disposent des lignes guides et recommandations pour créer de la valeur • Les offres, services ou processus de l'entreprise sont optimisés grâce aux connaissances acquises par l'analyse et l'évaluation des données • Les prescriptions du groupe en matière d'éthique et de gouvernance des données sont appliquées et respectées. • Présentation des fonctionnalités du ou des « produits » pour les promouvoir et pour faciliter la maintenance dans la durée • Résultats de tests conforme à la stratégie de test • Catalogue des produits data (dataset) à jour • Kit de formation et outils pour les utilisateurs Compétences fondamentales en Data Engineering : • Modélisation de données : conception de modèles relationnels, dimensionnels et Data Vault • ETL / ELT : conception et optimisation de pipelines robustes, gestion des dépendances • Qualité & gouvernance des données : data lineage, data quality checks, catalogage, gestion des métadonnées • Architecture data : compréhension des patterns modernes (Data Lakehouse, Data Mesh, etc.)
Contractor job
Senior Data Scientist - Gen AI - Finance (h/f)
Published on
12 months
650-750 €
75008, Paris, Île-de-France
Hybrid
Vous êtes un Data Scientist expérimenté, spécialisé dans l'IA générique et Python ? Emagine vous offre l'opportunité de guider et de diriger le développement de structures et d'outils efficaces afin de créer des applications d'IA fiables et dignes de confiance dans un environnement bancaire international. Are you an experienced Data Scientist with expertise in Gen AI and Python? Emagine has an opportunity for you to guide and lead the development of effective structures and tools to create reliable, trustworthy AI applications within a global banking environment. As part of an AI-focused emagine team working on Gen AI initiatives that leverage LLMs and advanced techniques to solve complex business problems. You will work on unstructured data from sources such as legal documents and financial trading policies, building solutions that enable accurate and reliable outcomes. Main Responsibilities Lead the design and implementation of Gen AI solutions for text-based and LLM-driven use cases. Develop Python-based tools for data ingestion, modelling, and manipulation of large volumes of unstructured data. Define effective structures and frameworks to ensure reliability and trustworthiness in AI applications. Collaborate with legal and compliance teams to process and model complex datasets. Key Requirements 5+ years of experience in Data Science including international corporate environments. Strong expertise in Python and hands-on experience with LLMs (e.g., Lama 7DB, GPT-4 API). Familiarity with vectorization, chunking, and advanced data modelling techniques. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Nice to Have Exposure to legal or procedure-focused applications. Other Details Work is a minimum of 3 days per week on-site (8th). Apply with your latest CV or reach out to Brendan to find out more.
Job Vacancy
Consultant Data Databricks (F/H)
Published on
Apache Spark
Databricks
DevOps
3 years
60k-75k €
550-610 €
Paris, France
Hybrid
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- Key Topics and Preparation Strategies for the Salesforce Data Architect Certification
- Advice on starting up as a freelance
- Best Crypt"o Recovery Company Expert Service Firm > (Autopsy~Mainnet~Recovery)
- Top Bitcoin Recovery Company Seveice Firm Expert Wih (Autopsy~Mainnet~Recovery)
- Best Bitcoin Recovery Expert Visit (Autopsy~Mainnet~Recovery)
- Best Bitcoin Recovery Service (Autopsy~Mainnet~Recovery)
Jobs by city
Jobs by country
86 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k