Trouvez votre prochaine offre d’emploi ou de mission freelance Data science

Votre recherche renvoie 111 résultats.
Freelance

Mission freelance
INGENIEUR IA

ROCKET TALENTS
Publiée le
DevOps
GPU
IA Générative

1 an
400-450 €
Saint-Quentin, Hauts-de-France
Missions : Vous intégrez au sein de l'équipe Service Infrastructure Open Natif et Data du Service Mise en marché des plateformes, et plus précisément dans le pôle Data. Vous serez en charge de la mise à disposition, de la maintenance et de l'évolution d'un ensemble de services liés aux offres autour de l'IA générative et du machine learning du client (LLMaaS, GPUaaS, Dataiku, etc.) À ce titre, les actions attendues sont les suivantes : Assurer le suivi et l'exploitation des plateformes IA pour nos utilisateurs internes. Accompagner la consommation des offres IA au sein du cluster, incluant l’accompagnement pour l'exposition de modèles LLM, la gestion des ressources GPU via Run:AI, et le déploiement de solutions RAG. Accompagner les équipes internes du cluster BPCR sur l'utilisation de ces plateformes, en assurant un support technique et méthodologique adapté à leurs besoins. Créer et mettre à disposition des services automatisés via Python et GitLab-CI pour faciliter l'adoption et l'utilisation des solutions IA. Les qualités pour mener à bien ces missions : Techniques : Bonnes connaissances en data science avec une compréhension des cycles de vie des modèles (entraînement, évaluation, déploiement, monitoring). Bonnes connaissances de Python pour le scripting, l'orchestration d'API REST et l'intégration de modèles. Bonne connaissance des concepts liés à Kubernetes (pods, services, namespaces, déploiements, etc.) et compréhension de son rôle dans l'hébergement et la mise à disposition de charges de travail IA. Compréhension des concepts d'IA générative (fine-tuning, transfer Learning, etc.), des architectures LLM et des patterns RAG. Connaissance des notions liées au GPU (allocation, mémoire, optimisation) et des frameworks de serving de modèles (vLLM, TGI ou équivalent). Bonnes connaissances de l'environnement Linux et des pratiques DevOps/MLOps. Familiarité avec des solutions de recherche vectorielle. Comportementale : Sens du service client Autonomie. Rigueur. Force de proposition. Vulgarisation. Esprit curieux et veille technologique active sur les évolutions de l'IA.
Freelance

Mission freelance
Un(e) ML Engineer / MLOps Engineer

Keypeople Consulting
Publiée le
Apache Airflow
BigQuery
FastAPI

6 mois
400-500 €
Paris, France
Opportunité -| un(e) ML Engineer / MLOps Engineer – Projet Data & IA en production Dans le cadre du renforcement d’une équipe Data & IA dédiée à la personnalisation de l’expérience utilisateur , nous recherchons un(e) ML Engineer confirmé(e) pour intervenir sur des projets à fort impact, en environnement cloud et production. Vos missions Concevoir, développer et maintenir des pipelines ML robustes et scalables Industrialiser les modèles développés avec les équipes Data Science Déployer les modèles en production et accompagner les A/B tests Mettre en place le monitoring des performances et le contrôle qualité des modèles Exposer les modèles via des API REST Structurer et optimiser le stockage et la circulation des données Développer et maintenir les workflows CI/CD Garantir la stabilité, la sécurité et l’évolutivité des environnements Collaborer avec les équipes Data, Produit et Tech dans un cadre Agile 🛠️ Environnement technique Python / SQL Google Cloud Platform Vertex AI BigQuery Cloud Run Airflow FastAPI / Flask Terraform GitLab CI/CD TensorFlow / Scikit-learn 👤 Profil recherché Minimum 3 ans d’expérience en environnement Data / Machine Learning Expérience confirmée en mise en production de modèles ML Très bonne maîtrise de Python, SQL et des architectures data Solide expérience sur GCP Connaissances MLOps / industrialisation / infrastructure as code Aisance en communication avec des interlocuteurs techniques et métiers Français courant indispensable
Freelance

Mission freelance
Ingénieur Data à Niort (3 jours sur site)

NEO SOFT SERVICES
Publiée le
Agile Scrum
Dataiku
Modèle Conceptuel des Données (MCD)

24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Présentation de l’organisation Au sein d’une organisation spécialisée dans les services financiers et l’assurance vie, la Direction des Systèmes d’Information Métier est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du système d’information dédié aux activités d’épargne et de finance. Enjeux stratégiques La valorisation de la donnée constitue un axe majeur de la stratégie de transformation pour les années à venir. Dans ce cadre, l’organisation recherche un Ingénieur Data expérimenté (niveau III) afin de rejoindre l’équipe de développement Data. Le consultant intégrera une équipe Data récemment constituée, avec pour objectif de construire, maintenir et optimiser les plateformes et pipelines de données , afin de garantir la fiabilité, la qualité et l’accessibilité des données pour l’ensemble des métiers de l’entreprise. Missions principales Le consultant Data sera rattaché au chef de projet de l’équipe et interviendra comme contributeur technique clé dans le cycle de vie de la donnée . Il participera activement à la mise en œuvre du modèle Data de l’organisation. Les principales missions seront les suivantes : Conception de pipelines de données (ETL / ELT) Concevoir, développer et optimiser des flux de données robustes et performants. Alimenter les entrepôts de données et les DataMarts. Modélisation des données Participer à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle). Adapter ces modèles aux besoins métiers du secteur financier et de l’assurance. Industrialisation des processus Data Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée. Utiliser des outils spécialisés de data science et de data engineering pour automatiser les flux. Visualisation et reporting Assurer l’intégration des données dans les outils de Business Intelligence pour leur exploitation par les équipes métiers. Maintenance et optimisation Garantir la performance et la qualité des flux de données. Maintenir l’infrastructure data en conditions opérationnelles. Compétences techniques recherchées Profil technique disposant d’une forte appétence pour les outils d’industrialisation et de traitement de la donnée . Compétences clés Niveau de prestation : Niveau III exigé Maîtrise avancée du langage SQL Expérience dans la conception et l’implémentation de processus ETL / ELT Expertise en modélisation de données (MCD, dimensionnelle) Capacité à challenger les solutions techniques , estimer les charges et piloter les phases de qualification Connaissance des outils de Business Intelligence (ex : Tableau ou équivalent) Compétences appréciées Maîtrise d’un outil de data science / data préparation (ex : Dataiku ou équivalent) Expérience sur des outils historiques de reporting ou d’analyse de données Connaissance du secteur assurance / finance Organisation de la mission Présence sur site : minimum 3 jours par semaine Télétravail possible le reste du temps Mission nécessitant une bonne autonomie et une capacité d’intégration dans une équipe Data
CDI
Freelance

Offre d'emploi
Data Scientist Senior — Expert IA Générative

Craftman data
Publiée le
AWS Cloud
IA Générative
Large Language Model (LLM)

12 mois
Seine-Saint-Denis, France
Data Scientist Senior — Expert IA Générative Minimum 5 ans en Data Science, dont 2+ ans en IA Générative AWS (GCP accepté si expertise confirmée) Mon client recherche un expert Data Scientist avec une forte orientation IA Générative, capable d'agir à la fois comme référent technique et comme ambassadeur de l'IA auprès des parties prenantes métiers et IT. Ce profil doit être un véritable catalyseur du changement, prêt à faire bouger les lignes et à ancrer une culture de l'IA au sein du groupe. 1. Expertise IA Générative & Data Science ▸ Définir et appliquer les méthodologies, bonnes pratiques et standards liés à l'IA Générative (LLM, RAG, fine-tuning, prompt engineering, agents autonomes…) ▸ Concevoir, développer et déployer des modèles et solutions d'IA Gen adaptés aux enjeux d'EDF ▸ Assurer une veille technologique active et identifier les opportunités d'innovation ▸ Garantir la qualité, la robustesse et l'éthique des approches IA mises en œuvre 2. Identification & Portage des Cas d'Usage ▸ Explorer et qualifier de nouveaux cas d'usage IA Générative, tant pour les métiers qu'en interne à la DSIN ▸ Challengeur les approches IA existantes et proposer des alternatives plus performantes ou innovantes ▸ Construire des preuves de concept (PoC) et accompagner le passage à l'échelle ▸ Prioriser les cas d'usage selon leur faisabilité technique et leur valeur business 3. Animation & Communication ▸ Interagir avec les acteurs clés (Directions métiers, DSI, Comité de Direction) pour présenter les travaux et défendre les orientations IA ▸ Animer des ateliers de co-construction et des sessions de sensibilisation à l'IA Générative ▸ Vulgariser des concepts techniques complexes pour des audiences non spécialistes ▸ Participer activement aux instances de gouvernance IA du groupe 4. Transformation & Acculturation ▸ Impulser une dynamique de transformation autour de l'IA au sein de la DSIN et de ses partenaires ▸ Contribuer à la construction d'une feuille de route IA ambitieuse et réaliste ▸ Mentorer et monter en compétences les équipes internes sur les sujets IA Gen ▸ Être force de proposition pour faire évoluer les pratiques et les organisations PROFIL RECHERCHÉ Compétences techniques indispensables ▸ Maîtrise avancée des techniques de Data Science : machine learning, deep learning, NLP, statistiques ▸ Expertise confirmée en IA Générative : LLM (GPT, Llama, Mistral…), RAG, agents, orchestration (LangChain, LlamaIndex…) ▸ Expérience sur AWS (SageMaker, Bedrock, Lambda…) — GCP (Vertex AI, BigQuery ML) accepté ▸ Maîtrise des langages Python et des frameworks IA/ML (PyTorch, HuggingFace, scikit-learn…) ▸ Connaissance des pratiques MLOps et de déploiement en production (CI/CD, monitoring de modèles) Savoir-être & posture attendus ▸ Excellentes qualités de communication orale et écrite, capacité à vulgariser et convaincre ▸ Leadership d'influence : capacité à embarquer sans autorité hiérarchique ▸ Curiosité intellectuelle, esprit d'initiative et goût pour l'innovation ▸ Appétence forte pour le changement et volonté de faire évoluer les pratiques dans un grand groupe ▸ Rigueur, autonomie et capacité à gérer plusieurs sujets en parallèle Expériences valorisées ▸ Expériences dans des secteurs régulés ou à forte contrainte (énergie, industrie, finance, santé…) ▸ Participation à des projets IA d'envergure avec mise en production effective ▸ Contribution à des communautés IA (publications, conférences, open source…)
Freelance

Mission freelance
Data Gouv Senior

Nicholson SAS
Publiée le
Confluence
Data analysis
Data Engineering

5 mois
550 €
Hauts-de-Seine, France
Nous recherchons pour notre client un Data Gouv Senior capable de fédérer et de piloter des instances : Rédaction et mise à jour des documents de gouvernance Data/IA (principes, référentiels, standards). Réorganisation, harmonisation et traduction (FR/EN) du fonds documentaire. Organisation des comités CDO / Data IA : invitations, ordres du jour, supports, comptes-rendus. Production des supports de communication ((intranet client), Teams, PowerPoint) Organisation d’évènements de la filière : plénières, challenges Data Science, ateliers. Collecte et consolidation des indicateurs mensuels de la filière. Rédaction du reporting mensuel d’activité. Compétences : Gouvernance des données Pilotage transverse / PMO et organisation de comités. Excellentes compétences rédactionnelles en français et bonne maîtrise de l’anglais. Communication interne, storytelling, animation de communautés. Maîtrise Microsoft 365 (PowerPoint, Excel, Teams, SharePoint). Connaissance de Confluence, Jira. Autonomie, rigueur, sens du détail et excellent relationnel.
CDI

Offre d'emploi
Data Engineer Teradata et Big Data H/F

CONSORT GROUP
Publiée le
Big Data
Teradata

55k-62k €
75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de ConsortIA , sont des acteurs de référence de la Data, du Développement Digital et de l'Ingénierie Média. En combinant ces expertises, nous concevons des systèmes d’information augmentés, intégrés, agiles et sécurisés, au service de la performance et de la transformation numérique de nos clients. Data Engineer Teradata et Big Data H/F C’est votre mission Vous êtes passionné·e par [XXX] ? Ce poste est fait pour vous. En tant que Data Engineer Teradata et Big Data , vous êtes responsable du [XXX] et [XXX] de notre écosystème : Côté build : Concevoir et développer des solutions DataMart / Datalab sur environnement Teradata Mettre en œuvre les chaînes ETL via BTEQ / TPT Développer des traitements de collecte, transformation et stockage de données sur plateforme Big Data Construire des agrégats et indicateurs (scores, datamarts) à destination des équipes Data Science Développer des pipelines de données sous environnements Spark / Hadoop / HDFS Participer à la modélisation et au design des solutions de données (bonnes pratiques Data Engineering) Industrialiser les traitements dans un contexte Unix / SQL / Teradata Utiliser les outils collaboratifs (Git, Jira, Confluence, MEGA) dans un cadre Agile Côté run : Assurer le support et la maintenance des chaînes de production Data Surveiller et optimiser les traitements batch (ordonnancement via Control-M ) Gérer les incidents de production sur les flux Teradata / Big Data Analyser et corriger les anomalies sur les traitements SQL / ETL Garantir la disponibilité et la performance des jobs data Participer à l’amélioration continue des pipelines (fiabilisation, optimisation) Assurer le support aux équipes Data Science sur les environnements de données Maintenir la documentation technique (Confluence, MEGA) Suivre les bonnes pratiques d’exploitation dans un contexte DevOps C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements DevOps exigeants. Vous aimez concevoir et industrialiser des pipelines de données robustes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Environnement Linux / Unix dans un contexte Agile et DevOps Maîtrise des technologies Data : Teradata, SQL, BTEQ, TPT Écosystème Big Data : Spark, Hadoop, HDFS, Python Outils d’exploitation et d’ordonnancement : Control-M Outils collaboratifs : Git, Jira, Confluence, MEGA Connaissance de solutions ETL / Data : Datastage Bonne compréhension des architectures de données et pipelines industrialisés C’est votre manière de faire équipe : Rigueur et sens de la qualité dans les traitements de données Esprit d’analyse et capacité de résolution de problèmes complexes Collaboration forte avec équipes Data, IT et métier Autonomie et sens des responsabilités en environnement de production Communication claire et esprit d’équipe Adaptabilité dans des environnements techniques évolutifs (DevOps / Big Data) Culture de l’amélioration continue et du delivery fiable C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Paris Contrat : CDI Télétravail : Hybride Salaire : De 55K € à 62K € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Alternance
CDI

Offre d'emploi
Data analyst (38971) (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Python
SQL

Issy-les-Moulineaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data engineer IA / ML Apache SPark

LeHibou
Publiée le
Apache Spark
Big Data

36 mois
500-580 €
Paris, France
Notre client dans le secteur Banque et finance recherche un Data Engineering (IA/ML) - Sénior H/F Descriptif de la mission: Data Engineering (IA/ML) - Sénior Contexte et objectif de la mission : La mission s’inscrit au sein d’une entité technologique d’un grand groupe de gestion d’actifs, responsable de la conception, du développement, de la commercialisation et du maintien de solutions technologiques pour l’industrie de l’épargne et de la gestion d’actifs. La prestation interviendra sur le socle Data/IA, en lien étroit avec l’équipe d’ingénierie de production afin d’assurer le support à l’échelle. Le consultant n’aura pas la charge de l’exploitation quotidienne, mais devra être capable d’intervenir sur des problèmes concrets, de structurer les pratiques, d’outiller les équipes et de garantir la robustesse et la scalabilité des solutions en place. Le besoin vise un profil à la fois opérationnel et capable de conseil. Missions principales : Expertise opérationnelle sur les plateformes Data/IA • Challenger et améliorer concrètement les plateformes d’orchestration et de requêtage distribué : diagnostic des problèmes de performance, optimisation des configurations, revue des patterns d’utilisation • Concevoir et optimiser les pipelines d’ingestion et de traitement de données basés sur Spark : performance des jobs, gestion des volumétries, stratégies de partitionnement et formats de stockage • Intervenir directement sur les évolutions techniques pour accompagner la montée en charge : volumétrie, nombre d’utilisateurs, complexité des pipelines • Contribuer à la gouvernance technique par la pratique : établir des standards à partir de cas concrets et documenter les décisions techniques • Évaluer et prototyper l’intégration de nouveaux composants dans l’écosystème : formats de stockage, outils de catalogue, moteurs de calcul Industrialisation et scalabilité : • Industrialiser les pipelines Data et IA/ML avec un objectif de fiabilité, observabilité et reproductibilité, en mettant en œuvre directement les solutions • Concevoir et implémenter les patterns de déploiement et d’exploitation à l’échelle en collaboration avec les équipes support et l’équipe d’ingénierie de production • Mettre en place les mécanismes de monitoring, d’alerting et de capacity planning adaptés aux workloads Data/IA • Structurer le support de niveau 3 et accompagner l’équipe de production sur le support de niveaux 1 et 2 Accompagnement et montée en compétence : • Conseiller et accompagner les équipes de développement et de data science dans l’utilisation optimale des plateformes • Assurer un rôle de référent technique opérationnel au sein de l’équipe, par l’exemple et le pair-working • Participer à la veille technologique et réaliser des POCs sur des évolutions pertinentes pour l’écosystème Data/IA Environnement fonctionnel : • Plateformes Data & IA/ML • Plateformes Kubernetes on-premise et Cloud servant de socle d’hébergement • Outils DevOps : intégration continue, déploiement, observabilité • Projets de R&D visant à moderniser le SI • Accompagnement des initiatives IA/ML du groupe • Outils de monitoring du SI Environnement technique : • Data / Orchestration : Dagster, Trino, Apache Spark, Hive, Delta Lake, Iceberg, Superset, OpenMetadata • IA / ML : workloads IA/ML sur Kubernetes, outils MLOps • Hébergement : Kubernetes on-prem et Azure, Docker • DevOps / Observabilité : ArgoCD, Jenkins, Grafana, Prometheus, Sysdig • Langages : Python, Go • Versioning / Stockage : GitLab, Artifactory, S3
Freelance
CDD

Offre d'emploi
AI Engineer

Gentis Recruitment SAS
Publiée le
API
Docker
LangChain

6 mois
50k-90k €
510-1 010 €
Luxembourg
Nous recherchons un(e) AI Engineer hands-on pour concevoir, développer et déployer des solutions d’Intelligence Artificielle et d’IA générative à l’échelle du Groupe. Vous interviendrez sur des projets à fort impact métier autour des LLM, copilotes, agents intelligents et solutions d’automatisation , avec un focus sur le développement concret et la mise en production. Dans ce cadre, vous serez responsable de la conception et du déploiement de solutions GenAI (LLM, RAG, agents), du développement d’applications IA robustes en Python , ainsi que de leur intégration aux systèmes et données de l’entreprise (API, bases de données, outils métiers). Vous contribuerez également à la mise en place et à la gestion des API Data/IA, ainsi qu’au maintien d’un registre de modèles (MLflow). Vous travaillerez en étroite collaboration avec les équipes Data Science, Data Engineering et Plateforme afin d’industrialiser les modèles et garantir leur mise en production dans des environnements fiables et performants. Vous serez également impliqué(e) dans le monitoring, l’optimisation continue des solutions et le respect des standards de sécurité, de gouvernance des données et de conformité réglementaire (notamment AI Act). En lien avec les équipes métiers, vous participerez à l’identification et à la co-construction de cas d’usage IA à forte valeur ajoutée.
CDI
Freelance

Offre d'emploi
ML Engineer/ MLOPS Engineer

Panda Services
Publiée le
API
BigQuery
CI/CD

12 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique. Dans le cadre du renforcement d’une équipe Data & IA dédiée à la personnalisation de l’expérience utilisateur, nous recherchons un(e) ML Engineer/ MLOPS Engineer Confirmé(e) pour intervenir sur des projets à fort impact, en environnement cloud et production. Localisation = Paris Projet Data & IA en production 🎯 Vos missions Au cœur de la chaîne de valeur Data & IA, vous interviendrez sur : La conception, le développement et la maintenance de pipelines ML robustes et scalables L’ industrialisation des modèles en collaboration avec les équipes Data Science Le déploiement en production des modèles et l’accompagnement des phases d’A/B testing La mise en place de solutions de monitoring (performance, dérive, qualité des modèles) L’ exposition des modèles via des API REST L’optimisation du stockage, de la circulation et de la gouvernance des données Le développement et la maintenance des workflows CI/CD La garantie de la stabilité, sécurité et scalabilité des environnements La collaboration étroite avec les équipes Data, Produit et Tech dans un cadre Agile 🛠️ Environnement technique Vous évoluerez dans un stack moderne orienté cloud : Langages : Python, SQL Cloud & Data : Google Cloud Platform (GCP), Vertex AI, BigQuery, Cloud Run Orchestration & APIs : Airflow, FastAPI, Flask CI/CD & Infra : GitLab CI/CD, Terraform Machine Learning : TensorFlow, Scikit-learn 👤 Profil recherché Minimum 3 ans d’expérience en environnement Data / Machine Learning Expérience confirmée en mise en production de modèles ML Très bonne maîtrise de Python, SQL et des architectures data Solide expérience sur Google Cloud Platform (GCP) Bonnes connaissances en MLOps, industrialisation et Infrastructure as Code Capacité à interagir avec des interlocuteurs techniques et métiers
Freelance

Mission freelance
Engineering Manager Data

HAYS France
Publiée le
Snowflake

6 mois
Nouvelle-Aquitaine, France
Notre client dans le secteur Santé recherche un/une Engineering Manager Data H/F Description de la mission: Dans le cadre de la modernisation de sa plateforme Data, le client lance un programme stratégique de migration de son Data Warehouse vers Snowflake. Ce programme s’inscrit dans une transformation globale visant à migrer des environnements legacy vers une architecture cloud scalable, améliorer la qualité, la gouvernance et l’accessibilité des données, et accélérer les usages métiers en BI, analytics et data science. L’environnement est international avec de forts enjeux de coordination entre équipes IT et métiers. Objectifs de la mission En tant qu’Engineering Manager Data, la mission consiste à assurer le pilotage technique et opérationnel de la migration vers Snowflake ainsi que le management des équipes Data. Missions principales • Cadrage et pilotage de la migration vers Snowflake • Définition de l’architecture Data cible • Management et structuration d’une équipe de Data Engineers • Mise en place des bonnes pratiques en qualité, monitoring, CI/CD et gouvernance • Accompagnement des équipes métiers dans l’adoption de la plateforme • Suivi des performances, des délais et des risques projet Profil recherché • Expérience confirmée en tant qu’Engineering Manager ou Lead Data Engineer • Expérience avérée de migration vers Snowflake, fortement souhaitée • Solide background technique en Data Engineering • Expérience en management d’équipe, avec une expérience onshore / offshore appréciée • Capacité à évoluer dans des environnements complexes et internationaux • Bon relationnel et capacité à interagir avec des interlocuteurs métiers Livrables attendus • Roadmap de migration et architecture cible • Suivi des sprints et des livraisons • Documentation technique et bonnes pratiques • Reporting projet : avancement, risques, KPI • Structuration et montée en compétence de l’équipe Compétences / Qualités indispensables : Snowflake, Data Engineering, Management d'équipe Data, Architecture Data, SQL et Python, Airflow / DBT Informations concernant le télétravail : 2 jours par semaine de télétravail Bureaux à Bordeaux
Freelance
CDD

Offre d'emploi
Senior Data Scientist

Gentis Recruitment SAS
Publiée le
Machine Learning
MLOps
Python

6 mois
53k-91k €
530-1k €
Luxembourg
Nous recherchons un(e) Senior Data Scientist pour concevoir, développer et déployer des modèles de data science à fort impact métier (segmentation, churn, fraude, marketing, prévision, optimisation). Vous interviendrez sur l’ensemble du cycle de vie des projets : exploration des données, feature engineering, modélisation, évaluation, mise en production et monitoring. Vous serez également responsable de la performance et de la robustesse des modèles dans le temps (dérive, recalibrage), tout en garantissant leur explicabilité et leur conformité. En collaboration avec les équipes Data Engineering, IT et métiers , vous contribuerez à l’industrialisation des solutions et à leur adoption. Vous participerez également à la diffusion des bonnes pratiques et jouerez un rôle de référent technique auprès de profils plus juniors.
CDI
Freelance

Offre d'emploi
Data Scientist (parlant Japonais ou Coréen)

OBJECTWARE
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
RAG

3 ans
40k-86k €
380-610 €
Île-de-France, France
Mission Concevoir et optimiser des systèmes de recherche intelligente basés sur l’IA générative (RAG) pour un SaaS métier, afin d’améliorer l’accès à l’information et la fiabilité des réponses. 🚀 Responsabilités Développer des pipelines RAG (embeddings, vector search, ranking) Optimiser la pertinence des résultats (precision, recall, MRR) Réduire les hallucinations des LLM Concevoir des architectures multi-agents via Semantic Kernel Industrialiser les modèles (API, intégration backend) 🧰 Stack IA : LLM, NLP, RAG, embeddings Cloud : Azure OpenAI Service Data : Azure Cosmos DB Backend : .NET 8, SignalR Front : React 5+ ans en Data Science / ML Expertise NLP / recherche sémantique Expérience en IA générative (RAG, LLM)
Freelance
CDI

Offre d'emploi
DATA SCIENTIST NLP / IA GEN pour développement de projets IA Gen

SMILE
Publiée le
AI
API REST
Méthode Agile

3 mois
40k-57k €
400-500 €
Île-de-France, France
Bonjour, Dans le cadre du centre d'expertise de la direction Data & IA, nous recherchons un(e) data scientist de 3 à 6 ans d'expérience. Il s'agira d'intervenir sur divers sujets : contribuer à l'analyse des use cases remontés par les entités du groupe , contribuer potentiellement à des benchmarks, prendre en charge une application d'évaluation RAG , contribuer à l'évaluation de prompt (équipe Expertise Transverse du Centre d'Expertise Data Science composée de 9 data scientists dont les projets DS s'articulent autour des outils NLP, Search, IA Générative). Les tâches à réaliser sont : - Analyse des cas d'usages - Cadrage, participation aux développement et suivi des projets - Prompt engineering - recommandation méthodologique - Evaluation des performances liées à l'utilisation de LLM, RAG - Partage autour de la veille technologique -Classification des Prompt. -Mutualiser cas d’usage - analyse des verbatim. -Tester et challenger la solution interne Contexte : Vous allez intégrer l'équipe qui centralise l'analyse des besoins ou des cas d'usage IA Gen. Il faut soit analyser la faisabilité des cas remontés , soit contribuer à des tests sur un périmètre restreint. Par ailleurs, il faut suivre l'usage d'une application d'évaluation RAG afin de répondre aux sollicitations utilisateurs. Expertises : - expert python - containerisation - CICD/MLOPS - API REST - Méthodes agiles - éventuellement groovy - LLM, NLP - VLLM, TensorRT > Python, maching learning - LLM, TGI, Aphrodite Engine, etc. Une expérience dans le domaine bancaire serait un plus
Freelance

Mission freelance
Ingénieur AWS

ROCKET TALENTS
Publiée le
AWS Cloud
IA Générative

1 an
400-450 €
Saint-Quentin, Hauts-de-France
Equipier Infrastructure Cloud DevOps Missions Vous intégrez au sein de l'équipe Service Infrastructure Open Natif et Data (BSIO), rattachée au Service Mise en marché des plateformes (MMP), et plus précisément au pôle Cloud Public. Vous serez en charge de la mise à disposition, de la maintenance et de l'évolution de plusieurs services liés aux offres Cloud Public, notamment l'hybridation Cloud (AWS). Vous travaillerez avec le client pour un accompagnement rapprocher sur un projet d’envergure afin d’apporter une expertise AWS conformément aux règles d’utilisation du Cloud Public chez le client. Description globale de l’organisation et des acteurs Groupe 2, Objet groupé Contexte : L’équipe a pour mission de faire évoluer l'offre Cloud Public destinée aux utilisateurs finaux CATS, en se concentrant sur les aspects de build, de run et d'exploitabilité des projets. L’équipier sera détaché au sein de l’équipe du client final afin d’apporter son expertise et d’assurer un accompagnement du developpement à la production du projet selon le respect des normes et bonnes pratiques définies. Les actions attendues du collaborateur sont les suivantes : Apporter une expertise technique sur le Cloud Provider AWS et veiller au respect des bonnes pratiques Cloud Public. Connaissance et usages des services IA d’AWS (Bedrock/SageMaker) Développer et maintenir des modules Terraform. Administrer des clusters Kubernetes (Amazon EKS). Concevoir et déployer des pipelines CI/CD avec GitLab, Linux, Docker et Terraform. Créer des outils internes en Python (scripts ou API) pour administrer les plateformes, générer des tableaux de bord, exposer des métriques et vérifier la conformité des déploiements et configurations (Technologies : FastAPI, GitLab, GitLab CI, Git). Accompagner les équipes internes du cluster BPCR sur l'utilisation de la plateforme Cloud Public, en assurant un support technique et méthodologique adapté à leurs besoins. Profil recherché Le nouveau collaborateur devra être en capacité et enclin à participer aux activités et tâches citées précédemment, il devra combiner de fortes compétences techniques sur les différents sujets ainsi que la capacité à avoir une vision macro d’un SI complexe. Compétences techniques nécessaires Sujet Détails Niveau requis Importance AWS Expert Haute Terraform Développement de modules Expert /Intermédiaire Haute EKS / Kubernetes Administration des clusters, Docker Intermédiaire Moyenne Python Script, API Intermédiaire Moyenne CI/CD Gitlab CI Intermédiaire Moyenne Os Linux Debian, Alpine, Ubuntu, RedHat Intermédiaire Moyenne Réseau Routage, firewall, chiffrement Intermédiaire Moyenne Active Directory Connaissances Moyenne Data Science Concept IA Générative, architecture LLM, patterns RAGs Intermédiaire Faible Des questions techniques seront posées lors de l’entretien pour valider les différents points.
CDI

Offre d'emploi
Data scientist H/F

█ █ █ █ █ █ █
Publiée le
Python
Scikit-learn
Tensorflow

Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Les métiers et les missions en freelance pour Data science

Data scientist

Le / La data scientist analyse et modélise de grandes quantités de données en utilisant des outils avancés comme le machine learning pour extraire des informations exploitables et guider les décisions stratégiques.

Data analyst

Le / La data analyst transforme les données brutes en rapports clairs et exploitables en utilisant des outils de visualisation et d'analyse statistique, souvent en collaboration avec des équipes de data science.

Développeur·euse IA/Machine Learning

Le / La développeur·euse IA / Machine Learning conçoit et implémente des modèles prédictifs et des algorithmes d'apprentissage automatique pour résoudre des problématiques complexes liées aux données.

Directeur·rice / Responsable de la data (Chief Data Officer)

Le / La responsable de la data supervise les stratégies de gestion et d’analyse des données, en utilisant des approches de data science pour maximiser la valeur des données dans l’entreprise.

111 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous