Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 119 résultats.
Freelance
CDI

Offre d'emploi
Data Scientist Senior – E-commerce Opération (H/F)

skiils
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
Python

1 an
10k-58k €
100-580 €
Paris, France

Nous recherchons un Data Scientist Senior (H/F) pour rejoindre l'équipe E-commerce, Marketing & Relation Clients d’un acteur du retail. 🎯 L’objectif ? Concevoir, industrialiser et améliorer des solutions de machine learning visant à optimiser la performance opérationnelle et commerciale du e-commerce : qualité des opérations, rentabilité, productivité et personnalisation client. Tu évolueras au sein du pôle Data Science Customer , dans un environnement agile, collaboratif et cloud-native , où les approches data-driven et l’innovation sont au cœur de la stratégie omnicanale du groupe. 🚀 Tes missions principales : Identifier, avec les équipes métier et opérationnelles, les cas d’usage data à fort impact business Explorer et fiabiliser les données : nettoyage, agrégation, étude ad-hoc et préparation de datasets Concevoir, implémenter et évaluer des modèles de machine learning et d’analyse prédictive Définir et conduire des protocoles de test en conditions réelles (magasins, entrepôts, plateformes logistiques) Industrialiser et maintenir les solutions dans les environnements cloud (CI/CD, monitoring, itérations) Assurer la transmission des bonnes pratiques et le mentoring de data scientists juniors Participer activement à la communauté Data Science du groupe (séminaires, retours d’expérience, veille technologique) 🔧 Environnement technique : Langages & outils : Python, SQL, Terraform, Docker, GitLab, Jenkins Cloud & Orchestration : Google Cloud Platform (GCP), Cloud Composer / Airflow, Cloud Run, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage Méthodologies : Agile / Scrum, itérations rapides, revue de code et bonnes pratiques DevOps

Freelance

Mission freelance
229359/Data Architect DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi)

WorldWide People
Publiée le
Architecture

3 mois
Vélizy-Villacoublay, Île-de-France

Data Architect Expérience: • Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Mission Maîtrisez l'architecture de la solution de bout en bout pour les produits de données et les cas d'utilisation analytiques au sein d'une ou plusieurs chaînes de valeur. Traduisez les résultats commerciaux en solutions de données sécurisées, évolutives et soucieuses des coûts, basées sur les données et la plateforme d'entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). Architecture : Ingestion de lots/flux, DWH (Kimball/Star) + Lakehouse (Iceberg/Trino), service via SQL/APIs/couche sémantique ; Les fonctionnalités ML s'écoulent en cas de besoin. Modélisation : Concepts métiers → conceptuels/sémantiques → logiques/physiques (partitionnement, ordre Z/cluster, index). BI & Analytics : Posséder la couche sémantique/les métriques, gouverner les KPI, optimiser les performances du tableau de bord/requête, la mise en cache, les agrégats ; activer le libre-service (couche dbt/metrics + catalogue). Ops & FinOps : SLO (fraîcheur/latence/coût), observabilité, runbooks, backfills ; ajustez le stockage/les requêtes pour réduire les coûts. Gouvernance/Maillage : métadonnées de propriété du produit, découvrabilité, documentation ; publication de blueprints et ADR. Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Gestion des parties prenantes • Travaillez en étroite collaboration avec les parties prenantes de l'entreprise, les responsables de livraison et les propriétaires de produits pour recueillir des informations, comprendre les points faibles et hiérarchiser les fonctionnalités qui génèrent de la valeur pour l'entreprise. • Présenter régulièrement des mises à jour sur les progrès à la haute direction, en soulignant les étapes franchies, les défis rencontrés et les prochaines étapes du processus de développement.

CDI
Freelance

Offre d'emploi
Project Manager - Data & AI

Signe +
Publiée le
AI

24 mois
45k-50k €
322-500 €
Paris, France

Compétences techniques : Expertise on Generative AI, machine learning, and related technologies. Expertise in PMP, PRINCE2, or similar is preferred. Proficiency in project management tools and methodologies. Familiarity with the insurance industry or related sectors (claims, underwriting, health) is advantageous. Compétences autres : Proven expertise in project management within AI, data science, or technology-driven environments. Expertise managing cross-functional teams and multiple workstreams. Stakeholder management and organizational expertise Strategic and problem-solving expertise . English environment Innovative environment Site : Paris, 2 jours/ semaine sur site Prix d'achat max : 780 €HT Date de démarrage : asap Durée mission : 14 mois (fin 31/12/2026) Profil : Project Manager – Data& AI Anglais obligatoire

Freelance

Mission freelance
Data Scientist

ematiss
Publiée le
IA Générative

6 mois
400-550 €
Nantes, Pays de la Loire

Description: Prestation de Data Scientist en IA Générative - Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen - Prompt engineering - Bench via des solutions d'évaluation des modèles d'IA Gen - Optimisation des solutions (paramétrage des modèles) Compétences et expériences : - Expérience solide sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails - Expérience significative en Machine/Deep Learning serait appréciée : pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch

Freelance
CDI
CDD

Offre d'emploi
Data Scientist

LEVUP
Publiée le
Python

6 mois
Liège, Belgique

En tant que Data Scientist Senior , vous participerez à des projets complexes de traitement et d’analyse de données afin de générer des insights exploitables. Vous travaillerez en étroite collaboration avec les équipes métiers, IT et Data Engineering pour construire des modèles prédictifs et des solutions analytiques robustes. Responsabilités principales Concevoir, développer et déployer des modèles de machine learning pour résoudre des problématiques business complexes. Manipuler, transformer et analyser de grands volumes de données provenant de différentes sources (bases relationnelles, Snowflake, APIs…). Garantir la qualité et la cohérence des données en collaboration avec les équipes Data Governance et en utilisant des outils comme Collibra . Développer et maintenir des pipelines ETL et scripts Python pour automatiser le traitement des données. Présenter les résultats et insights de manière claire aux parties prenantes, en français et en anglais. Encadrer et partager vos connaissances avec des profils moins expérimentés (mentorat). Contribuer à la définition des bonnes pratiques Data Science et à l’amélioration continue des processus analytiques. Profil recherché Diplôme supérieur en Statistiques, Informatique, Mathématiques, Data Science ou domaine similaire. Expérience significative (minimum 5 ans) en Data Science, idéalement dans un environnement international. Maîtrise avancée de Python pour le traitement de données et le développement de modèles ML (pandas, scikit-learn, TensorFlow, etc.). Maîtrise de SQL et expérience sur Snowflake pour l’interrogation et l’exploitation des données. Expérience avec des outils de Data Governance , en particulier Collibra . Solide compréhension des statistiques, de l’algorithmique et des méthodes de machine learning. Capacité à travailler en autonomie et à gérer des projets complexes. Excellente communication écrite et orale en français et anglais . Compétences appréciées Expérience avec des outils de visualisation (Tableau, Power BI, Plotly…). Connaissance des bonnes pratiques DevOps/DataOps appliquées à la Data Science. Expérience avec des environnements cloud (AWS, Azure, GCP). Ce que nous offrons Un environnement stimulant et innovant avec des projets à fort impact. Opportunités d’évolution et formation continue. Flexibilité et équilibre vie professionnelle/vie personnelle. Travail dans une équipe dynamique et collaborative.

CDI

Offre d'emploi
Ingénieur Data / IA – Automatisation de la vérification des données GxP (H/F)

DAVRICOURT
Publiée le
Automatisation

45k-50k €
Annecy, Auvergne-Rhône-Alpes

Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Ingénieur Data / IA pour l'un de nos clients du secteur pharmaceutique. Vous interviendrez sur le site client situé dans la région Auvergne-Rhône-Alpes (Annecy). À ce titre, vos missions quotidiennes seront les suivantes : - Mettre en place un Proof of Concept (POC) visant à utiliser l'Intelligence Artificielle (IA) pour automatiser la double vérification et la fiabilisation des données sensibles issues du laboratoire et du service R&D (cahiers de laboratoire, bases SQL, images, etc.), dans un environnement réglementé GxP / GAMP ; - Analyser les différentes sources de données et en évaluer la qualité et la structure ; - Concevoir et développer un prototype IA intégrant des techniques de data processing, machine learning ou computer vision ; - Documenter les développements et les tests conformément aux exigences GxP / GAMP 5 ; - Collaborer étroitement avec le Responsable R&D et le service Qualité / Validation pour garantir la conformité du POC. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.

CDI

Offre d'emploi
Expert Databricks - Secteur public H/F

VIVERIS
Publiée le

45k-55k €
Crédit Agricole du Languedoc, Occitanie

Contexte de la mission : Viveris accompagne ses clients dans la conception, le développement et la mise en oeuvre de solutions analytiques avancées. Dans ce cadre, nous recherchons un Expert sur la technologie Databricks afin d'accompagner notre client dans la migration de ses usages vers cette technologie. Vous êtes intégré dans une Direction des Systèmes d'Information, dans une équipe transverse en charge des domaines Data, Analytics et IA composée de 30 personnes. Responsabilités : - Concevoir et implémenter des pipelines de données performants sur Databricks ; - Optimiser les processus de traitement et d'analyse de données massives ; - Développer des modèles de machine learning et les déployer sur Databricks ; - Assurer la maintenance et l'évolution des infrastructures et des environnements existants ; - Fournir un support technique et des recommandations pour optimiser les performances sur Databricks.

Freelance
CDI

Offre d'emploi
Devops (AWS et GCP) (expert dynatrace) full remote

Lùkla
Publiée le
Ansible
AWS Cloud
DevOps

1 an
47k-56k €
400-550 €
France

Contexte de la mission Dans le cadre d’un programme stratégique visant à renforcer les capacités d’ observabilité et de monitoring multi-cloud , notre client recherche 3 ingénieurs DevOps seniors disposant d’une expertise confirmée sur Dynatrace et d’une solide expérience sur les environnements AWS et GCP . L’objectif est de concevoir, optimiser et automatiser les plateformes de supervision applicative et d’observabilité dans un environnement Cloud moderne et à grande échelle, intégrant des approches IA / Machine Learning (AIOps) pour la détection et la remédiation proactive des incidents. Rôles et responsabilités principales Concevoir et implémenter des solutions complètes de monitoring et d’observabilité sur AWS et GCP. Administrer et personnaliser les environnements Dynatrace (Logs, APM, Metrics, Grail) . Optimiser la collecte, la visualisation et l’analyse des données de performance applicative (Prometheus, Grafana, OpenTelemetry…). Mettre en place et automatiser les chaînes CI/CD (Jenkins, GitLab CI, ArgoCD). Développer et maintenir des infrastructures via Infrastructure as Code (Terraform, Ansible, Helm) . Participer à l’intégration de briques AIOps basées sur l’analyse des données et le Machine Learning. Assurer la gouvernance, la documentation et la standardisation des bonnes pratiques DevOps. Collaborer étroitement avec les équipes Cloud, Sécurité et Architecture pour garantir la performance et la conformité des systèmes. Compétences techniques requises Dynatrace (Logs, APM, Grail, Dashboards, Alerting) – expertise indispensable AWS et GCP – intégration, supervision et exploitation des services natifs Monitoring / Observabilité : Prometheus, Grafana, OpenTelemetry, SolarWinds IaC / Automatisation : Terraform, Ansible, Helm, GitOps CI/CD : GitLab CI, Jenkins, ArgoCD Langages / Scripting : Python, Bash, YAML DevSecOps : intégration sécurité dans les pipelines (Checkov, Trivy, etc.) AIOps / ML : notions ou expérience d’intégration IA pour la supervision (un plus) Anglais professionnel courant (équipe internationale) Informations pratiques Niveau recherché : Senior (minimum 5–6 ans d’expérience sur Dynatrace / Observabilité) Localisation : Full Remote (rares déplacements possibles à Marseille) Ouverture : Profils basés en France, nearshore ou offshore acceptés Démarrage : ASAP Durée : Mission longue et reconductible Langue de travail : Anglais courant Télétravail : 100 % remote possible

Freelance

Mission freelance
Tech Lead DATA AZURE / OpenAI

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Azure

6 mois
Paris, France

Full remote Durée : 6 mois renouvelable Niveau : Senior / +10 ans d’expérience Le rôle : Piloter la conception et la direction technique d’une solution interne stratégique, data-driven et IA Concevoir l’architecture logicielle et encadrer les choix techniques dans Azure Superviser la mise en œuvre CI/CD et le déploiement des environnements Collaborer avec les équipes Data, AI, et Software pour garantir la cohérence technique Assurer l’intégration avec les environnements SAP et Salesforce Profil recherché : Excellente maîtrise de Microsoft Azure (Data Factory, Synapse, Functions, DevOps...) Expertise en architecture logicielle, Data Engineering et Machine Learning Solides compétences en conception de bases de données SQL / NoSQL Expérience confirmée en intégration d’écosystèmes complexes Leadership technique et capacité à fédérer des équipes pluridisciplinaires

Freelance

Mission freelance
Consultant (H/F) Senior Devops AWS/GCP- Expert Dynatrace

HOXTON PARTNERS
Publiée le
AWS Cloud
Dynatrace
Google Cloud Platform (GCP)

12 mois
France

Dans le cadre d’un projet international de longue durée, nous recherchons un ingénieur DevOps spécialisé sur les environnements AWS / GCP , avec une expertise confirmée sur Dynatrace . Le consultant interviendra sur la conception et la mise en œuvre de solutions complètes de supervision et d’observabilité, l’optimisation des systèmes de monitoring, et l’intégration de technologies basées sur l’IA et le Machine Learning pour l’automatisation. Le rôle inclut la personnalisation et la gestion d’outils tels que Dynatrace, SolarWinds, OpenTelemetry, Prometheus et Grafana .

Freelance
CDI

Offre d'emploi
Analyste SOC_SPLUNK

iDNA
Publiée le
Security Information Event Management (SIEM)
Splunk

6 mois
50k-55k €
400-620 €
Hauts-de-Seine, France

Vos missions Au sein de l’équipe CyberSOC de notre client, vous serez en charge d’analyser, investiguer et traiter les incidents de sécurité. Vous serez chargé (e ) de fournir et appliquer des plans de remédiation, de contribuer à l’amélioration continue et à l’optimisation des outils, règles de détection et scripts d’automatisation. Vous participerez à la mise en place de projets innovants sur Splunk (RBA, Machine Learning ToolKit) afin d’optimiser la couverture de détection. Le/la consultant (e ) assurera une veille sur les menaces et vulnérabilités, participera au partage de renseignements fiables et contextualisés, exécutera des activités régulières de « Threat Hunting » et développera de nouvelles hypothèses de recherche. Vous produirez des rapports réguliers sur vos activités et maintiendrez les bases de connaissances (Confluence, Git, SharePoint). Tâches à réaliser : - Analyse, investigation et traitement des incidents de sécurité - Fourniture et application de plans de remédiation - Amélioration continue et opmisation des outils, règles de détection et scripting pour automatisa tion - Participation et/ou mise en place de projets innovants sur Splunk (RBA, Machine Learning ToolKit) - Veille sur les menaces et vulnérabilités, partage de renseignements fiables et contextualisés Exécution de « Threat Hunting » régulier, développement et documentation de nouvelles hypothèses de recherche Produc on de rapports réguliers sur les activités Main en des bases de connaissances (Confluence, Git, SharePoint) Avantages & Perspectives · Démarrage dès que possible · Mission de longue durée · Lieu : île de France · Rémunération : package global +/- 55 K selon profil (Politique d’intéressement en place depuis 2015)

Freelance

Mission freelance
Data Engineer confirmé

SQLI
Publiée le
Azure Data Factory

6 mois
400-500 €
Paris, France

Hello, Pour le compte de l'un de mes clients parisiens dans le secteur de la sous traitance de services, je suis à la recherche d'un data engineer confirmé. Expériences et/ou skills mandatory : - Expérience en Data Engineering/Data Modelling (Pipelines + structuration Bases de données). -Expérience sur Azure + DataBricks (DB nice to have). -A déjà travaillé sur un ou plusieurs Use Cases Machine Learning et/ou IA (ou bonnes notions/compréhension). -Bon communicant (car proche du business),

Freelance

Mission freelance
Développeur fullstack - Data/IA (H/F)

LeHibou
Publiée le
Docker
Elasticsearch
FastAPI

6 mois
400-480 €
Toulouse, Occitanie

Notre client dans le secteur Santé et pharma recherche un/une Data / IA Engineer (H/F ) Description de la mission : Dans le cadre de nouveaux projets, notre client va rechercher un freelance expérimenté sur la partie Data. Vous interviendrez au sein de l'équipe Data intégration en tant que Data / IA Engineer. Vous serez responsable de la conception, du développement et de l'intégration de solutions complètes enrichies par des algorithmes d'intelligence artificielle. Vous jouerez un rôle crucial dans la création de services backend robustes et performants, en utilisant Python et FastAPI pour traiter et analyser des données complexes. Vos missions seront les suivantes : Concevoir et développer des services backend en Python et FastAPI, intégrant des techniques avancées de machine learning et de traitement de données massives. Gérer et optimiser des bases de données telles que MongoDB, Elasticsearch, ainsi que des systèmes SQL et NoSQL pour assurer un stockage et une analyse efficaces des données. Mettre en œuvre des méthodologies de CI/CD en utilisant Docker et GitLab CI, avec un fort accent sur l'automatisation des workflows de data science pour garantir une intégration et une livraison continues fluides. Collaborer avec les équipes de développement pour intégrer des modèles d'IA dans les applications, en assurant leur performance et leur scalabilité. (Optionnel) Développer des interfaces utilisateur interactives en utilisant React et Next.js, permettant une interaction fluide avec les modèles d'IA.

Freelance

Mission freelance
Ingénieur IA / MLOps Senior

Groupe Aptenia
Publiée le
AWS Cloud
Large Language Model (LLM)
MLOps

3 ans
500-600 €
Île-de-France, France

Nous recherchons un Ingénieur IA / ML Ops senior pour renforcer notre équipe IT Data & IA en charge des projets Data & IA stratégiques d'un grand groupe international. 📍 Localisation : Saint Quentin en Yvelines / 2J de TT 📅 Démarrage : ASAP ⏳ Durée : Longue mission ✅Piloter le portefeuille de cas d’usage IA (ML, deep learning, IA générative, agentique) ✅Être le référent IA auprès des chefs de projet, architectes, métiers et partenaires ✅Mettre en place les bonnes pratiques de Feature Engineering, validation des données & QA ✅Challenger les modèles et garantir leur robustesse, explicabilité et conformité (IA Act, RGPD) ✅Définir et appliquer le cadre ML Ops du groupe (CI/CD, versioning, monitoring, reproductibilité) ✅Concevoir et implémenter des architectures IA modulaires et industrialisables ✅Auditer, valider et documenter les modèles / cas d’usage avant mise en production ✅Encadrer et accompagner les juniors, diffuser les bonnes pratiques et vulgariser auprès des métiers ✅Assurer une veille technologique active et anticiper les évolutions réglementaires

Freelance

Mission freelance
[TPR] Data Scientist / Data Engineer - EXPERT Minimum 10 XP - 941

ISUPPLIER
Publiée le

10 mois
580-635 €
Paris, France

Contexte et objectifs de la mission : Le client recherche un Data Scientist / Data Engineer confirmé disposant d’une expérience éprouvée en Data Science, en Large Language Models (LLMs) et dans l’utilisation avancée de LangChain et LangGraph. Le candidat participera à la conception, l’optimisation et l’industrialisation de solutions d’intelligence artificielle sur une stack Azure Fabric, Docker et App Container Services, incluant des modèles multimodaux et de Computer vision. Missions : • Concevoir, entraîner et déployer des modèles prédictifs et explicatifs (Machine Learning, Deep Learning). • Développer et maintenir des pipelines de données performants sur Azure Fabric. • Conteneuriser et orchestrer les modèles via Docker et App Container Services. • Implémenter et automatiser des workflows complexes via n8n. • Intégrer et exploiter des LLMs (fine-tuning, RAG, GraphRAG) dans des environnements de production. • Développer des solutions avancées à l’aide de LangChain et LangGraph pour la création d’agents intelligents et d’applications IA. • Mettre en œuvre des modèles multimodaux (texte, image, audio, vidéo) et de computer vision. • Concevoir des interfaces de visualisation et d’interaction via Streamlit. • Exploiter des LLMs Azure OpenAI et des modèles open source (Mistral, Llama, etc.) via Hugging Face. • Garantir la qualité, la robustesse et la documentation du code et des modèles. Compétences essentielles et expérience • Automatisation & Orchestration : n8n • LLMs & IA Générative : fine-tuning, RAG, GraphRAG, LangChain, LangGraph, modèles multimodaux, Azure OpenAI, Hugging Face, LLMs open source • Machine Learning / Deep Learning : Régression linéaire et non linéaire, Random Forest, XGBoost, Gradient Boosting, CNN, RNN, Transformers, Computer Vision • Cloud & Conteneurisation : Azure Fabric, Docker, App Container Services • Langages : Python, SQL • Frameworks & Outils : Streamlit, FastAPI, scikit-learn, PyTorch, TensorFlow Profil recherché • Bac+5 (Master / Ingénieur) en Data Science • Minimum 5 ans d’expérience en Data Science et Data Engineering. • Expérience éprouvée dans la mise en production de LLMs et l’usage de LangChain / LangGraph. • Bonne maîtrise des LLMs open source et Azure OpenAI via Hugging Face. • Solides compétences en modélisation prédictive, automatisation et industrialisation de modèles IA. • Esprit analytique, rigueur et autonomie.

Freelance
CDD

Offre d'emploi
Data Scientist

Ailancy Technology
Publiée le
CI/CD
Databricks
Deep Learning

1 an
40k-45k €
400-550 €
Paris, France

Contexte de la mission Projets innovants depuis la R&D jusqu’au packaging pour industrialisation de modèles de ML appliquées aux problématiques de maîtrise de la charge de sinistres, de lutte anti-fraude et de maîtrise des risques climatiques. Un environnement de travail dans le DataLab Groupe sous Databricks et données puisées dans le DataLake Groupe et mises à disposition dans le DataLab. Objectifs et livrables Objet de la mission Le portefeuille projets de l’équipe est constitué de plusieurs projets de Data Science sur les sujets suivants : - Lutte contre la fraude - Analyse et réaction post-event sinistres, en particulier sur les périls climatiques - Prévention des sinistres graves Le consultant sera responsable de la cohérence technique des développements sur les projets de Data Science de l'équipe, du cadrage au déploiement en production. Principaux volets de la mission : - Superviser techniquement les travaux des Data Scientist junior et stagiaires de l'équipe (cadrage technique, challenge et optimisation du code, méthodologie modélisation) - Être le référent technique de l'équipe concernant les travaux d'industrialisation des modèles effectués par l'IT de L'organisation, en challengeant notamment leurs approches - Contribuer ponctuellement sur quelques projets de Data Science - Rédiger et/ou superviser la documentation en conformité avec les normes et standards de l'équipe - Proposer des nouveaux outils, méthodes pour faire monter en compétence l'équipe - Apporter un œil nouveau dans l'amélioration continue des modèles développés par l'équipe (utilisation de données non structurées, données externes…) En fonction des projets, les travaux vont du cadrage des sujets, préparation des bases de données, engineering des features, écritures et tuning des modèles de ML, préparation à l’industrialisation sous forme de projets.

119 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous