Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 17 résultats.
Freelance
CDI

Offre d'emploi
Machine Learning/ML Engineer

WINSIDE Technology
Publiée le
Python

3 ans
40k-52k €
400-540 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Engineer confirmé.e pour une grande entreprise sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans à minima en tant ML Engineer. tu es expert.e en conception et industrialisation de modèles. tu sais automatiser les entraînements et les déploiements de modèles. tu as 5 ans d'expérience professionnelle en Python. tu as des bases solides sur MLflow ou Kubeflow ou Vertex. tu es familier avec l'environnement GCP et ses services. tu as des excellentes connaissances DevOps et de bases de données SQL et NoSQL. Idéalement tu as eu une expérience dans le retail. Les bénéfices du poste : 🤖 Un terrain de jeu technologique de pointe Le poste offre une exposition complète aux technologies les plus recherchées du marché : LLM, RAG, MLOps, GCP, Kubernetes — avec une ownership réelle du cycle de vie complet des modèles, du prototype à la production. 🚀 Un environnement d'innovation structuré L'entreprise combine l'agilité (Scrum/SAFe) d'une culture innovation avec la solidité d'un grand groupe, offrant ainsi stabilité et dynamisme pour progresser vite. Tes missions : Concevoir, développer et industrialiser des modèles de Machine Learning et d'IA, de la phase de prototypage jusqu'à la mise en production. Construire et maintenir les pipelines de données et de MLOps pour automatiser l'entraînement, l'évaluation et le déploiement des modèles. Participer activement à l'architecture et au développement des produits du domaine, notamment la plateforme MLOps et les solutions basées sur les LLM. Assurer la scalabilité, la robustesse et la performance des solutions IA déployées, en collaboration avec les équipes Ops et Data. Garantir la qualité du code et des modèles via des revues, des tests automatisés (unitaires, intégration) et des stratégies de monitoring. Participer à l'élaboration de la CI/CD selon les pratiques DevOps et MLOps sur la Google Cloud Platform et Github. Assurer une documentation complète des modèles, des pipelines et des configurations au sein du référentiel documentaire (Github / Gitbook). Être responsable du cycle de vie complet des modèles (build et run), incluant le monitoring et la maintenance en production. Démarrage : mi-mars, début avril. TT: 3 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Freelance
CDI

Offre d'emploi
Machine Learning Engineer

OBJECTWARE
Publiée le
Machine Learning

3 ans
40k-72k €
400-600 €
Île-de-France, France
• L’analyse automatique des justificatifs produits par les clients dans le cadre des demandes de crédit • L’extraction et analyse d’informations à partir d’images et contrats dans le cadre des différents parcours clients des banques de détail • Le développement d’interfaces conversationnelles pour l’analyse des données bancaires • Le développement d’assistants virtuels pour les banques de détail Dans le cadre de ces projets, et en fonction de leur état d’avancement, les consultants assureront les missions suivantes : • Participation aux travaux de cadrage • Participation à la définition des approches techniques à tester • Exploration et mise en qualité des données • Développement et validation des modèles • Développement des solutions applicatives embarquant les modèles • Dimensionnement des environnements de production en collaboration avec les équipes IT des entités concernées • Participation au déploiement continu et au monitoring de la performance
Freelance
CDI

Offre d'emploi
Senior Machine Learning Engineer (MLE) - H/F

AMD Blue
Publiée le
AWS Cloud
Machine Learning
PySpark

3 ans
60k-65k €
650-730 €
Paris, France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Data . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Data . Contexte de la mission : Notre client développe et maintient des modèles de prévision de la demande et des ventes à l'échelle internationale. L'enjeu de 2026 est d'étendre la couverture de ces pipelines de production à de nouvelles zones géographiques mondiales (SEA, LATAM, NA et MEA). Dans ce cadre, nous recherchons un(e) Senior Machine Learning Engineer pour industrialiser, déployer et fiabiliser ces modèles de forecast à grande échelle. Descriptif de la mission : Les missions sont : Industrialisation et déploiement : Transformer les prototypes Data Science en pipelines robustes, orchestrer la mise en production et optimiser les performances de run. MLOps & Robustesse : Renforcer la CI/CD ML, versionner les modèles/datasets et implémenter le monitoring (drift, stabilité). Collaboration technique : Challenger la conception des modèles pour faciliter l'industrialisation et améliorer la qualité du code (structure, tests). Scalabilité internationale : Adapter les pipelines pour supporter de fortes volumétries multi-régions. Coordination : Structurer et prioriser les activités de Run & Stabilisation dans un environnement Agile (Scrum).
Freelance
CDI

Offre d'emploi
Machine Learning Engineer - MLOps

Okara
Publiée le
Docker
MLOps

6 mois
Lille, Hauts-de-France
Au sein d'un acteur majeur du retail européen, l'équipe Data & IA Marketplace traite des volumes massifs de données issues de vendeurs tiers. L'objectif est d'automatiser la qualification, la classification et l'enrichissement des catalogues produits pour garantir une expérience utilisateur optimale. Le défi réside dans l'industrialisation de modèles complexes au sein d'une architecture Data Mesh en forte croissance. La Stack Technique Langages : Python, Bash. Cloud : GCP (Google Cloud Platform). Orchestration & MLOps : Airflow, Kubeflow, ZenML, MLflow, Vertex AI. Infrastructure & DevOps : Docker, Kubernetes, Terraform, Ansible, Gitlab CI. Data Quality & Feature Store : Great Expectations, Feast. Ta Mission & Ton Impact : Concevoir et maintenir des pipelines MLOps automatisés (CI/CD) pour l'entraînement et le déploiement des modèles en production. Gérer l'infrastructure cloud via Terraform et assurer le versioning complet des modèles et des données. Implémenter le monitoring de performance (détection de drift, latence) et configurer l'alerting pour garantir la fiabilité des solutions. Accompagner les Data Scientists dans l'adoption des meilleures pratiques de développement (code quality, tests, industrialisation). Intégrer des validations de schémas et des filtres de qualité de données au sein des pipelines de production.
Freelance
CDI

Offre d'emploi
Machine Learning Engineer – GenAI / RAG – GCP

xITed
Publiée le
BigQuery
Google Cloud Platform (GCP)
Large Language Model (LLM)

12 mois
38k-60k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet autour de l’industrialisation de solutions d’intelligence artificielle, nous recherchons un Machine Learning Engineer capable de concevoir et déployer des solutions basées sur des LLM et architectures RAG dans un environnement Google Cloud Platform . Le consultant interviendra sur la conception, le développement et la mise en production de solutions d’IA intégrées dans des applications métiers. Missions : Conception et développement de solutions basées sur LLM et RAG Développement et optimisation de modèles de Machine Learning Mise en place de pipelines MLOps Mise en production de modèles ML et GenAI Déploiement de services ML dans un environnement GCP Développement d’API d’inférence et intégration dans des applications métiers Collaboration avec les équipes data, cloud et engineering Compétences techniques Machine Learning / GenAI Python TensorFlow / PyTorch ou équivalent LLM RAG LangChain ou frameworks similaires Cloud & Infrastructure Google Cloud Platform Vertex AI BigQuery Cloud Run ou GKE MLOps Docker Kubernetes CI/CD
Freelance

Mission freelance
Machine Learning Engineer – IA & MLOps

ESENCA
Publiée le
Github
LangChain
Python

1 an
Lille, Hauts-de-France
Contexte du poste Dans un environnement technologique en forte croissance, vous intervenez sur le développement et l’industrialisation de solutions d’Intelligence Artificielle. Les produits évoluent rapidement et nécessitent une forte capacité d’adaptation, de structuration et d’industrialisation des modèles. Objectif Concevoir, développer et déployer des solutions AI/ML robustes et scalables, tout en assurant leur intégration dans une chaîne CI/CD moderne et une plateforme MLOps structurée. Missions principalesDéveloppement & Industrialisation IA Concevoir et développer des modèles de Machine Learning et solutions basées sur les LLM Implémenter des composants AI/ML (fonctions, classes, tests automatisés) Participer à la conception d’architectures orientées Data & IA Assurer le passage du prototype à la production MLOps & Data Engineering Construire et maintenir les pipelines d’entraînement, d’évaluation et de déploiement Automatiser les workflows via Github Actions Mettre en œuvre les bonnes pratiques CI/CD et DevOps Assurer le monitoring, la performance et la scalabilité des modèles Qualité & Documentation Garantir la qualité du code (tests unitaires, intégration) Réaliser des revues de code Documenter les développements et configurations (Github / Gitbook) Assurer le suivi du cycle de vie complet des modèles (build & run) Environnement technique Python (impératif), Github Actions (impératif), LangChain (souhaitable), GCP, Kubernetes, Kafka, Terraform, bases SQL/NoSQL.
Freelance
CDI

Offre d'emploi
AI/ML Product Engineer

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Île-de-France, France
Contexte de la mission Support Business Units in designing, developing, and industrializing AI solutions across all Energy segments (buildings, industrial sites, networks, production). Leverage energy domain expertise and strong AI/ML technical skills to translate operational challenges into production-ready, scalable AI products. Focus on high-impact use cases that deliver measurable results in energy performance and decarbonization, creating robust, explainable, and reusable ML/AI components that integrate with the Group data platform and can be deployed across multiple BUs. Objectifs et livrables Design, develop, and deploy scalable AI/ML solutions that drive energy performance optimization and decarbonization across all Energy business units Transform operational energy challenges into production-ready AI products through hands-on collaboration with Data Science and IT teams Build and maintain a reusable library of explainable AI components integrated with the Group data platform for cross-BU deployment Orchestrate end-to-end solution delivery from POC to production, ensuring technical feasibility, data quality, and measurable business impact Enable knowledge sharing and solution replication through comprehensive documentation, blueprints, and implementation playbooks Facilitate cross-functional collaboration between Business Units, Data Science, IT, and central functions to prioritize and execute high-impact AI use cases Compétences demandées MLOps & Industrialization Confirmé Generative AI & Agents Expert Classical ML & Deep Learning Expert Energy Efficiency Avancé Data Engineering Avancé
Freelance

Mission freelance
Principal ML Engineer – Search & Retrieval Systems - ENGLISH MANDATORY

FF
Publiée le
MySQL
Python

6 mois
500-600 €
Paris, France
Dans le cadre du développement d’une start-up très ambitieuse , nous recherchons un(e) Principal ML / AI Engineer (Freelance) pour concevoir et structurer un système de recherche et de recommandation nouvelle génération basé sur des modèles de langage. La mission est stratégique et structurante : vous interviendrez sur l’architecture backend d’un moteur combinant recherche sémantique, contraintes structurées et orchestration LLM. Le périmètre couvre l’ensemble de la chaîne : Transformation de requêtes en langage naturel en requêtes structurées exploitables. Génération de candidats, filtrage et ranking multi-étapes. Re-ranking via LLM et amélioration continue de la pertinence. Mise en place de mécanismes d’explicabilité. Responsabilités principales Recherche & Retrieval Conception et exploitation de pipelines basés sur des embeddings. Sélection et évaluation de modèles d’embeddings. Structuration et normalisation des données pour optimiser performance et pertinence. Ranking & Pertinence Conception de flux multi-étapes (candidate generation → filtering → re-ranking). Définition de signaux de scoring hybrides (structurés + sémantiques). Itération continue à partir de données réelles. Architecture agentique Mise en place de systèmes où l’IA sélectionne et appelle dynamiquement des outils. Implémentation de boucles d’exploration et d’affinement. Arbitrage entre autonomie des modèles et contrôle déterministe. Intégration LLM Orchestration d’appels LLM pour compréhension, extraction d’intention et ranking. Définition de sorties structurées robustes (JSON schemas). Intégration de patterns RAG et recherche hybride. Évaluation & Performance Mise en place de frameworks d’évaluation de la pertinence. Analyse et amélioration des décisions de ranking. Optimisation des pipelines pour garantir une latence faible.
Freelance

Mission freelance
Data Scientist / ML Engineer (Credit Risk & GenAI)

Codezys
Publiée le
API
Azure
Data science

12 mois
Lille, Hauts-de-France
Dans le cadre de sa feuille de route en intelligence artificielle, ce client s'engage à développer et accélérer l’intégration des technologies de Machine Learning , Deep Learning , NLP (traitement du langage naturel) ainsi que des solutions d’IA Génératives . L’objectif est de maximiser l’exploitation des données, d’optimiser les processus opérationnels et d’améliorer l’expérience client. Objectifs et livrables Credit Risk Scoring Concevoir et optimiser, pour les équipes Risque et Validation, des modèles de scoring d’octroi et de comportement, en explorant des approches innovantes. Assurer la stabilité du coût du risque en entraînant et déployant ces solutions, tout en mettant en place un monitoring efficace de la dérive des modèles. Collaborer étroitement avec les experts métier et les équipes Risque pour garantir la pertinence et l’efficacité des solutions développées. Solutions d’Intelligence Artificielle Optimiser l’expérience client en intégrant en temps réel nos modèles d’IA via des API dans les parcours digitaux (ex. scoring en temps réel, personnalisation des offres de paiement, etc.). Participer à l’architecture technique pour une intégration fluide des modèles, en suivant les meilleures pratiques en matière de développement (notamment Cloud et MLOps). Collaborer avec les équipes Produit et IT afin d’industrialiser et déployer ces solutions à grande échelle. Intelligence Artificielle Générative (GenAI) Transformer les processus internes (Marketing, Audit, Risque, etc.) ainsi que la relation et le support client, en prototypant puis en déployant en production des solutions d’IA Générative sous forme d’agents (ex. LLM, RAG). Automatiser l’octroi de crédits, réaliser des analyses documentaires complexes et faciliter l’interaction avec la clientèle en mettant en place des architectures orientées agents. Évaluer, optimiser et suivre les performances des agents (cohérence, diversité, utilisation de LLM en tant que juge, etc.).
CDI
Freelance

Offre d'emploi
Data Engineer ML

Signe +
Publiée le

24 mois
50k-55k €
358-550 €
Lyon, Auvergne-Rhône-Alpes
Construire, tester et maintenir le data layer et les plates-formes de données avec les équipes produit. Développer et mettre en œuvre l'architecture permettant d'analyser et de traiter les données. Gérer efficacement les interfaces avec de grandes quantités de données et créer/intégrer des structures adaptées à l'analyse. Déployer des algorithmes dans un code efficace en termes de performances. Deux domaines : Data Engineering et Machine Learning Compétences techniques requises : Data engineering Data architecture Machine learning Data lake Data management
CDI
Freelance

Offre d'emploi
Data Engineer senior

Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue

1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
CDI

Offre d'emploi
Tech Lead Databricks

KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark

55k-70k €
Paris, France
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
CDI

Offre d'emploi
Tech Lead Databricks - Lyon

KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark

50k-60k €
Lyon, Auvergne-Rhône-Alpes
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
Freelance

Mission freelance
MLOps - SageMaker

Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud

3 mois
400-550 €
Paris, France
Au sein d'une équipe de 7 ML Engineers , vous serez l'expert Infrastructure dédié au pôle ML. Votre mission est de bâtir, maintenir et faire évoluer la stack technique permettant de propulser des systèmes de Machine Learning scalables et fiables. Vous ferez le pont entre le monde du DevOps et celui de la Data Science pour garantir l'efficacité opérationnelle des pipelines de production. Missions : Gestion de l’Infrastructure : Maintenir et optimiser la stack infrastructure dédiée au ML en respectant l'état de l'art et les bonnes pratiques AWS. Automatisation (IaC) : Provisionner et gérer les ressources via Terraform pour assurer la reproductibilité des environnements. Orchestration de Workflows : Piloter et configurer les pipelines de données complexes et les workflows ML via Apache Airflow (MWAA). Support Projets Spécifiques : Collaborer avec l'équipe sur l'intégration d'outils avancés comme les bases de données vectorielles (Vectiroeilles), Open Search et l'indexation. Cycle de vie ML : Mettre en place des serveurs dédiés MLFlow pour le suivi de l'entraînement des modèles et optimiser les phases de prédiction. Exploitation SageMaker : Utilisation intensive d'Amazon SageMaker pour l'entraînement et le déploiement de modèles.
Freelance

Mission freelance
POT8951 - Un Data Analyste sur Massy

Almatek
Publiée le
Docker

6 mois
170-470 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients, un Data Analyste sur Massy ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. -Discuter avec les équipes opérationnelles et dirigeantes pour identifier leurs besoins et leurs difficultés, raffiner et prioriser les besoins avec l’ensemble de l’équipe -Concevoir, développer, faire évoluer la solution logicielle de détection de fraude avec des traitements vidéo en temps réel, des processus d’apprentissage automatique et de labellisation de données, des services d’administration de la solution et de suivi de sa performance, - Valider le comportement de la solution sur une infrastructure de test, identique aux magasins -Contribuer itérativement au projet en tant que ML engineer : collecte des données et préparation, modélisation, développement, évaluation, revue de code, déploiement des solutions, suivi de l’impact; - Communiquer sur les éventuels incidents des services en production -Vous pourrez également participer aux échanges réguliers de notre communauté d’une quarantaine d'ingénieurs (data scientists, engineers, devops) : présentations, - Partage de retours de conférences, débats sur les problématiques ML, de développement logiciel, ...
Freelance
CDI
CDD

Offre d'emploi
Data Engineer Principal

Craftman data
Publiée le
Architecture
Big Data
Data Lake

8 mois
40k-45k €
400-560 €
Lyon, Auvergne-Rhône-Alpes
Missions : Construire, tester et maintenir le data layer et les plates-formes de données avec les équipes produit. Développer et mettre en œuvre l’architecture permettant d'analyser et de traiter les données. Gérer efficacement les interfaces avec de grandes quantités de données et créer/intégrer des structures adaptées à l'analyse. Déployer des algorithmes dans un code efficace en termes de performances. Deux domaines : Data Engineering et Machine Learning Profil : Data Engineer Principal Nombre d’années d’expérience : +7 ans Compétences techniques requises : Data engineering Data architecture Machine learning Data lake Data management
17 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous