Trouvez votre prochaine offre d’emploi ou de mission freelance Scikit-learn à Montpellier
Votre recherche renvoie 4 résultats.
Offre d'emploi
Architecte web - Ingénieur IA / LLM Engineer
VISIAN
Publiée le
IA Générative
Large Language Model (LLM)
3 ans
50k-55k €
500-550 €
Montpellier, Occitanie
Contexte Dans le cadre du développement d’une solution interne basée sur l’IA générative, une organisation souhaite renforcer son équipe technique afin de concevoir et faire évoluer un socle cognitif intégrant des modèles de langage (LLM). L’objectif est de développer et industrialiser une plateforme IA interne permettant de proposer différents modules à valeur ajoutée autour de l’IA générative, tout en garantissant un haut niveau de sécurité et de robustesse. Missions • Concevoir et développer des modules d’IA générative intégrés à une solution interne (RAG, génération automatisée de présentations, web grounding, etc.) • Participer à la construction et à l’évolution d’un socle cognitif et d’un système de chat basé sur des LLM • Développer de nouvelles fonctionnalités à forte valeur ajoutée pour la plateforme IA interne • Mettre en place et suivre les expérimentations liées aux modèles IA et aux pipelines de traitement de données • Contribuer à l’architecture technique et à l’urbanisation de la solution IA • Accompagner les équipes dans l’industrialisation et la mise en production des modules développés • Garantir la qualité, la performance et la sécurité des développements Environnement technique • Cloud : AWS • Langages : Python • Data & IA : TensorFlow, scikit-learn, pandas, NumPy, PySpark, PyKrige • Bases de données : NoSQL, MySQL • Conteneurisation / orchestration : Kubernetes • Outils de qualité et sécurité du code : SonarQube, Checkmarx, JFrog Xray, OWASP Dependency Check
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Mission freelance
Data Engineer (F/H)
CELAD
Publiée le
1 an
450-550 €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
45k-55k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4 résultats
Contrats
Lieu
1
1
Montpellier, Occitanie
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois