Find your next tech and IT Job or contract Data science
Job Vacancy
Lead python et Data
• Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…)

Contractor job
Ingénieur LLMOPS/MLOps
Bonjour, je suis à la recherche d'un expert MLOPS dont vous trouverez la fiche de poste ci-dessous: Fiche de poste – MLOps / LLMOps – Plateforme IA Générative Introduction Une organisation publique a conçu une plateforme d’IA générative pour répondre à des besoins métiers croissants en bande passante et en accès à des modèles performants. Face à l’augmentation rapide des usages (Assistant IA, outils internes, IA pour développeurs), il devient indispensable de renforcer les capacités opérationnelles et d’optimiser l’infrastructure. Le matériel nécessaire à l’IA générative étant coûteux, l’optimisation de son utilisation est cruciale pour atteindre les objectifs sans dépendre uniquement de l’achat de nouveaux équipements. Dans ce contexte, un profil MLOps est recherché en priorité , avec une expertise LLMOps fortement appréciée . Mission Le MLOps/LLMOps recruté rejoindra la squad Plateforme et travaillera en étroite collaboration avec : Le Product Manager (PM) pour la priorisation des besoins dans une démarche agile ; Le Tech Lead LLMOps, garant du bon fonctionnement de la bande passante générative ; L’équipe Data Science pour le support sur les problématiques IA ; L’équipe Produit et les utilisateurs métiers pour les retours terrain.
Contractor job
ML Engineer confirmé
Nous recherchons un ML Engineer confirmé pour une mission de 3 à 6 mois au sein de l’entité Data Analyse & Data Science de la Data Factory Omnicanal. Objectif : accompagner la montée en puissance des cas d’usage marketing via l’IA, tout en respectant la stratégie de jeu responsable, avec un fort focus sur l’industrialisation et la robustesse des modèles ML. Missions principales Le/la ML Engineer interviendra notamment sur : Migration de l’existant Data Science d’Hadoop vers AWS S3 et Dataiku Portage, optimisation et industrialisation des pipelines de données Mise en place et suivi des bonnes pratiques MLOps (CI/CD, monitoring, amélioration continue) Développement et déploiement de modèles ML avancés adaptés aux enjeux marketing digital Documentation et partage de bonnes pratiques Infos pratiques 📍 Lieu : île de France – 2 jours de TT / semaine 📅 Démarrage : 29/09/2025
Job Vacancy
Data engineer ETL Airflow
Data/ML Engineer – Secteur bancaire (IDF) – DISPO ASAP – MISSION LONGUE Contexte : Accélération IA – chantier Knowledge Management pour constituer une base de connaissance à partir de documents non structurés (PDF, Word, HTML). Un pipeline initial existe et doit être industrialisé pour une exécution fiable, scalable et maintenable. Objectif : Développer les pipelines d’ingestion, transformation et alimentation de la base, en assurant versioning et traçabilité . Activités : Modéliser l’architecture technique (ingestion → stockage) Développer des flux ETL modulaires (OCR, transformation, enrichissement) Standardiser le format pivot et les conventions de métadonnées Assurer l’historisation, le versioning et la traçabilité des documents Implémenter un orchestrateur (Airflow/Dagster/Prefect) si nécessaire Suivre la robustesse sur des volumes variés Collaborer avec les équipes KM et Data Science Documenter l’ensemble des flux de traitement

Job Vacancy
Data Analyst Production / IT (H/F)
Pour notre client dans le secteur bancaire, vous rejoignez les équipes IT / Production pour piloter, analyser et optimiser les données techniques issues des systèmes de production (logs, incidents, monitoring, supervision). Votre rôle est clé pour assurer la fiabilité , la disponibilité et la performance des services bancaires, en lien avec les équipes techniques, DevOps et métiers. 🎓 Formation & Expérience Bac +5 (école d’ingénieur, université ou équivalent) en data science, statistiques, informatique Expérience en tant que Data Analyst dans un contexte IT / production Une expérience dans le secteur bancaire ou financier est un atout majeur 🛠️ Compétences Techniques Langages : SQL , Python ou R Outils : Power BI , Tableau , Excel avancé (macros, Power Query) Environnements : ETL / ELT , data warehouse , data lake Connaissances en statistiques , modélisation , data mining Notions de DevOps , Jenkins , Airflow , versioning 🔄 Méthodologie & Qualités Méthodes Agile , cycles itératifs Capacité à analyser , structurer et communiquer avec des interlocuteurs techniques et métiers Rigueur, esprit critique, proactivité

Contractor job
Expert Data Scientist – Secteur Public (H/F)
Compétences clés : Dataiku • Microsoft Power BI • MySQL • Talend Dans le cadre de projets stratégiques de transformation et de modernisation du secteur public, nous recherchons un(e) Expert Data Scientist H/F freelance pour accompagner nos clients dans la valorisation et l’exploitation avancée de leurs données. Vous interviendrez en tant qu’expert(e) sur des problématiques complexes, avec un rôle clé dans la définition et la mise en œuvre de solutions data-driven à forte valeur ajoutée. La maîtrise de Dataiku est indispensable. Vos missions : Piloter le développement de modèles de data science complexes dans Dataiku : exploration, apprentissage automatique, analyses prédictives et prescriptives. Définir les stratégies de collecte, d’intégration et d’exploitation de données hétérogènes en garantissant leur qualité et leur conformité réglementaire (RGPD, sécurité des données). Concevoir et automatiser des pipelines de données robustes avec Dataiku et/ou Talend. Construire et superviser la réalisation de tableaux de bord et visualisations avancées avec Tableau ou Power BI, en réponse à des enjeux métiers variés. Jouer un rôle de référent(e) technique auprès des équipes internes et des interlocuteurs métiers, en les accompagnant dans la formalisation des besoins et la diffusion d’une culture data. Contribuer activement aux choix d’architecture et à la mise en place des bonnes pratiques data science au sein des projets.

Job Vacancy
Tech Lead Databricks
Nous recherchons un Tech Lead Databricks pour rejoindre l’équipe Data en pleine expansion de notre client, leader dans le domaine de la maitrise des risques. Vous aurez la responsabilité d’assurer la conception et la mise en œuvre de solutions de data engineering et data science sur la plateforme Databricks, tout en assurant le leadership technique pour une équipe de développeurs et data engineers. MISSIONS Leadership technique Coacher une équipe de data engineers, data scientists, et développeurs travaillant sur la plateforme Databricks Mettre en place des bonnes pratiques de développement et veiller à la qualité du code (revues de code, tests unitaires) Conception et architecture Concevoir et implémenter des solutions techniques sur Databricks pour répondre aux besoins des équipes métiers (data analytics, data science) Définir des architectures évolutives et performantes pour l'ingestion, le traitement et l’analyse des données Participer à la modélisation de données Travailler en étroite collaboration avec les architectes, les équipes applicatives et équipes métiers pour définir des solutions adaptées Développement et intégration Développer des pipelines de données et des workflows de traitement de données dans Databricks Assurer l'intégration des solutions avec d'autres outils et systèmes (bases de données, systèmes de stockage, outils de BI) Participer au développement des tableaux de bord sous Power BI Optimisation des performances Identifier et résoudre les problèmes de performance dans les flux de données et l'architecture Mettre en place des mécanismes d'optimisation des coûts liés à l’utilisation de la plateforme Databricks Veille technologique et innovation Assurer une veille sur les nouvelles technologies et pratiques dans l’écosystème Big Data et Databricks Proposer des améliorations continues pour augmenter l’efficacité des processus et la qualité des données Accompagner et former les équipes IT aux bonnes pratiques ITIL
Contractor job
Data Engineer AWS
Missions principales : Développer et industrialiser des pipelines de données et microservices sur AWS. Assurer la qualité, la fiabilité et l’accessibilité des données. Collaborer avec les équipes Data Science pour répondre aux besoins métiers. Maintenir et optimiser les systèmes existants. Participer à la collecte des besoins et à la documentation technique. Minimum 4 ans d’expérience en Data Engineering et big data. Maîtrise de Python, programmation orientée objet et design patterns. Expérience sur bases de données SQL et Graph. Connaissance des architectures microservices et APIs externes. Expertise conteneurisation (Docker, Kubernetes, Helm) et CI/CD (GitFlow, GitOps, Terraform). Bonne communication, autonomie, rigueur et capacité à gérer plusieurs tâches. Expérience des services AWS : S3, Lambda, IAM....

Contractor job
Mission Longue de Consultant Snowflake
Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.
Job Vacancy
Data Engineer (PySpark)
Métier et fonction : Data Management Data Engineer Spécialité technologique : Big Data Type de facturation : Assistance Technique (facturation au taux journalier) Techniques et outils maîtrisés : Hadoop, PySpark (2 ans) Secteur d'activité : Administration Publique Description de la prestation : Dans le cadre d’un projet stratégique en recouvrement et lutte contre la fraude, un Data Engineer confirmé spécialisé en PySpark est recherché pour une équipe pilotée par un Tech Lead expérimenté. Le projet manipule plusieurs milliards d’événements par jour, visant à développer des cas d’usage à fort impact comme la détection d’anomalies et l’optimisation des processus de recouvrement. Missions principales : Construire et optimiser des pipelines de données sous PySpark. Participer à la mise en place d’architectures Big Data sur environnement Hadoop (optionnel). Garantir la qualité, la fiabilité et la performance des flux de données. Collaborer avec les équipes data science et métier pour industrialiser des cas d’usage (fraude, scoring, recouvrement automatisé). Gérer des problématiques de scalabilité et de traitement en temps réel ou batch. Assurer la sécurité et la conformité des traitements de données sensibles.
Contractor job
Mission Freelance – Data Engineer AWS (H/F)
🧠 Vos missions Concevoir, construire et maintenir l’infrastructure AWS dédiée aux traitements Data & IA. Développer des pipelines de données robustes et scalables, orientés médias. Industrialiser les cas d’usage métiers en lien étroit avec les équipes Data Science. Garantir la qualité, la fiabilité et la performance des données et des traitements. Contribuer à la documentation technique et au suivi de l’activité. Collaborer avec les équipes métiers pour recueillir les besoins et proposer des améliorations. 🛠️ Environnement technique Cloud & Infra as Code : AWS (IAM, S3, Lambda, Secret Manager, VPC), Terraform, Ansible, GitOps. Conteneurisation : Docker, Kubernetes, Helm. Langage principal : Python (POO, design patterns, tests). CI/CD : GitFlow, pipelines de déploiement. Bases de données : SQL et Graph. Outils projet : JIRA, méthodes Agile.
Contractor job
Mission Freelance – Data Analyst
Contribuer à la création et à l’exploitation du socle de données : Participer à l’audit des nouvelles sources de données disponibles dans le Datalake (GCP / BigQuery) . Intégrer et structurer ces données afin de renforcer la qualité, la fiabilité et l’exploitabilité du socle. Collaborer avec les équipes techniques pour garantir la cohérence et la performance de l’architecture Data. Développer et maintenir des dashboards stratégiques sous Power BI : Concevoir des tableaux de bord permettant de suivre les objectifs clés, les usages et les profils utilisateurs . Faire évoluer les dashboards existants en intégrant de nouveaux indicateurs ou en améliorant les calculs. Garantir la clarté, la pertinence et la valeur opérationnelle des visualisations fournies aux équipes métier et au management. Analyser en profondeur les profils et comportements des utilisateurs : Étudier les parcours des vidéonautes (programmes recrutants, fidélisants, engagement selon les canaux d’acquisition). Identifier les tendances de consommation par contenus, types d’écran et plateformes. Mesurer l’impact de la pression publicitaire , des nouvelles fonctionnalités ou de la distribution multi-partenaires sur l’expérience utilisateur. Produire des analyses permettant de mieux segmenter et comprendre les publics. Contribuer aux projets Data Science & Intelligence Artificielle : Participer aux initiatives Data Science visant à améliorer l’expérience utilisateur (recommandations, personnalisation, parcours fluidifiés). Apporter un support analytique pour l’optimisation des process internes (production, diffusion, marketing digital, monétisation). Collaborer avec les Data Scientists et les métiers pour transformer les insights en solutions concrètes et actionnables . Accompagner la diffusion et l’appropriation de la culture Data : Vulgariser les résultats et insights auprès des équipes non techniques. Contribuer à la montée en maturité des usages Data au sein de l’organisation. Proposer des axes d’amélioration et partager les bonnes pratiques en continu.

Contractor job
Data Scientist Python Software - London
Data Scientist and Python Software Developer - London We're looking to recruit a Data Scientist and Python Software Developer with data science skills to join a product team that is focused on building well engineered products. The products provide an intuitive way for retailers and suppliers to interact and consume 'big data' analytics to make better business decisions. This role would consist of working together with a team of statistical analysts, understanding their methodologies and algorithms, and turning them into production ready code written in Python. This role would also require occasional travel to Paris or Munich. Main skills: Excellent knowledge of Python and it's related data science libraries (scikit, pandas, etc) Prior experience of using Python to perform calculations and generate datasets Good statistical knowledge Excellent communication and decision making skills Exposure to working with REST API's Any of the following skills would be an added bonus: Has run code across Hadoop/MapReduce clusters Has code running in a production environment Used SAS before (or at least can decipher SAS code) Worked with very large data sets before (billions of records) Knowledge of SQL/NoSQL database Knowledge or experience in D3.js Experience acting as a mentor/trainer in Python This is 6 month assignment in London with travel to Paris and Munich. Please send your CV to us in Word format along with daily rate and availability.

Job Vacancy
Data Scientist - secteur médical H/F
Contexte de la mission : Dans un contexte d'innovation biomédicale, la mission s'intègre au sein d'un service « Data Science - Molecular & Data-IT » spécialisé dans l'exploitation de données scientifiques et la mise en oeuvre de modèles complexes au service de la recherche et du développement. Basée à Grenoble, cette mission vise à renforcer les travaux autour de dynaMo, un outil de simulation destiné à optimiser l'étude des interactions biologiques et à améliorer la prédiction des résultats expérimentaux. Responsabilités : - Contribuer à l'amélioration de l'outil dynaMo en évaluant divers outils de simulation des interactions entre primers. - Générer des simulations mimant des jeux de données réels, en collaboration étroite avec les biologistes et les data scientists impliqués dans le projet. - Comparer les résultats obtenus avec les données réelles afin d'identifier les écarts et proposer des pistes d'amélioration. - Synthétiser les résultats, proposer et mettre en oeuvre des optimisations permettant de reproduire plus fidèlement les réactions biologiques.

Contractor job
Ingénieur de production - Data / GCP
Notre client, un grand groupe bancaire, souhiate intégrer un profil d"ingénieur de production au sein de sa plateforme Data & Analytics Cloud , qui centralise les usages de reporting, data science et data management pour l’ensemble du groupe. Au sein du service Power BI Cloud et Data Platform , vous intégrerez l’équipe en charge de l’exploitation et de la fiabilité des environnements de production supportant plusieurs milliers d’utilisateurs et applications Missions : En tant qu’ Ingénieur de Production , vous participerez à la supervision, au maintien en conditions opérationnelles et à l’automatisation des services data et BI du groupe. Vos activités clés : Assurer l’ exploitation courante de la plateforme Power BI Cloud et des environnements Data (GCP). Gérer les déploiements applicatifs et les changements via XL Deploy . Participer à la mise en place d’infrastructures automatisées (Infrastructure as Code – Terraform ). Superviser les traitements de données et les flux d’ingestion sur BigQuery . Contribuer à la gestion des accès utilisateurs et à la sécurisation des environnements . Participer au diagnostic et à la résolution d’incidents en lien avec les équipes projet et data. Collaborer aux activités Build et à la mise en production de nouveaux services en mode Agile / DevOps . Être force de proposition pour l’amélioration continue , l’ industrialisation et la fiabilité des process d’exploitation Stack technique : Power BI Cloud (SaaS, administration et gouvernance) GCP : BigQuery, IAM, monitoring, déploiement de services Data Terraform (IaC) XL Deploy , intégration et automatisation des déploiements Scripting : Bash / Python / PowerShell Supervision et observabilité (outils du marché ou internes)
Contractor job
Big Data Engineer - High level Clearance
Big Data Systems Engineer Highest Level of Clearance Full time onsite You will be responsible for designing, implementing, and maintaining scalable big data systems that support our data science, machine learning, and AI workloads. You will work closely with cross-functional teams to ensure seamless data integration, security, and compliance with GDPR and privacy regulations. Your expertise in scripting, troubleshooting, and integration testing will be essential in optimizing our data pipelines and orchestration processes. Role responsibilities: * Scripting and Automation: Develop and maintain scripts for automating data processes and workflows. * Troubleshooting: Diagnose and resolve technical issues related to big data systems, data pipelines, and integrations. * Integration Testing: Conduct thorough testing to ensure seamless integration of new tools and technologies into existing systems. * Linux Internals: Utilize in-depth knowledge of Linux internals to optimize performance and reliability of big data infrastructure. * Network Protocols: Apply understanding of TCP/IP and OSI models in the design and troubleshooting of networked systems. * Data Pipeline Support: Manage and optimize data pipelines and orchestration tools such as NiFi and Airflow. * Scalable System Design: Design scalable big data systems with a focus on security, GDPR compliance, and privacy * Hybrid Cloud Management: Leverage hybrid cloud experience to manage on-premise and AWS cloud resources effectively * Data Science Support: Support data science, machine learning, and AI workloads using tools like Jupyter, Spacy, Transformers, and NLTK. * Big Data Platforms: Utilize big data NoSQL engines and platforms such as Hive, Impala, and Elasticsearch for data storage and processing * BI and Visualization: Implement and support business intelligence and visualization tools like Tableau, Kibana, and PowerBI to provide actionable insights. We are looking for: * Strong troubleshooting skills and the ability to diagnose and resolve complex technical issues. * Experience with integration testing and ensuring seamless tool integration. * In-depth knowledge of Linux internals and system administration. * Understanding of TCP/IP and OSI models. * Hands-on experience with data pipeline tools like NiFi and Airflow. * Proven ability to design scalable big data systems with a focus on security and GDPR compliance. * Hybrid cloud experience, specifically with on-premise and AWS cloud environments. * Familiarity with data science, machine learning, and AI tools such as Jupyter, Spacy, Transformers, and NLTK. * Experience with big data NoSQL engines/platforms such as Hive, Impala, and Elasticsearch. * Proficiency with business intelligence and visualization tools like Tableau, Kibana, and PowerBI. * Excellent communication and collaboration skills. Preferred Qualifications: * Certification in AWS or other cloud platforms. * Experience with additional data orchestration tools. * Familiarity with other big data tools and technologies. * Previous experience in a similar role within a dynamic and fast-paced environment. Please send your latest CV Due to the nature and urgency of this post, candidates holding or who have held high level security clearance in the past are most welcome to apply. Please note successful applicants will be required to be security cleared prior to appointment which can take up to a minimum 18 weeks. LA International is a HMG approved ICT Recruitment and Project Solutions Consultancy, operating globally from the largest single site in the UK as an IT Consultancy or as an Employment Business & Agency depending upon the precise nature of the work, for security cleared jobs or non-clearance vacancies, LA International welcome applications from all sections of the community and from people with diverse experience and backgrounds. Award Winning LA International, winner of the Recruiter Awards for Excellence, Best IT Recruitment Company, Best Public Sector Recruitment Company and overall Gold Award winner, has now secured the most prestigious business award that any business can receive, The Queens Award for Enterprise: International Trade, for the second consecutive period.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
Contract roles and jobs for Data science
Data Scientist
The data scientist analyzes and models large datasets using advanced tools such as machine learning to extract actionable insights and guide strategic decisions.
Explore contract role and jobs for Data Scientist .
Find out the jobsData Analyst
The data analyst converts raw data into clear, actionable reports using visualization and statistical analysis tools, often collaborating with data science teams.
Explore contract role and jobs for Data Analyst .
Find out the jobsAI/Machine Learning Developer
The AI / Machine Learning developer designs and implements predictive models and machine learning algorithms to solve complex data-related problems.
Explore contract role and jobs for AI/Machine Learning Developer .
Find out the jobsData Director / Chief Data Officer (CDO)
The Chief Data Officer oversees data management and analysis strategies, leveraging data science approaches to maximize the value of data within the company.
Explore contract role and jobs for Data Director / Chief Data Officer (CDO) .
Find out the jobs