Trouvez votre prochaine offre d’emploi ou de mission freelance Machine Learning
Ce qu’il faut savoir sur Machine Learning
Machine Learning (ou apprentissage automatique) est une discipline de l’intelligence artificielle qui permet aux systèmes informatiques d’apprendre à partir de données et de s’améliorer sans intervention humaine directe. Le Machine Learning utilise des algorithmes et des modèles statistiques pour détecter des motifs, effectuer des prédictions ou proposer des recommandations. Il peut fonctionner de différentes manières : avec apprentissage supervisé, où le modèle est entraîné sur des données étiquetées pour prédire des résultats spécifiques, avec apprentissage non supervisé, où il explore des données non étiquetées pour identifier des structures ou des regroupements, ou encore avec apprentissage par renforcement, où le système apprend par essais et erreurs pour maximiser une récompense. Cette technologie est utilisée dans de nombreux secteurs, comme la reconnaissance d’images, les assistants virtuels, les systèmes de recommandation ou l’automatisation industrielle, et elle joue un rôle clé dans l’exploitation des données et l’innovation technologique.
Offre d'emploi
Senior Cloud Data Engineer
Les équipes Data Systems de notre client recherchent un Senior Cloud Data Engineer passionné, basé à Paris, pour accompagner la forte croissance de leurs activités. En rejoignant l'équipe : Vous intégrerez une équipe autonome, impliquée dans un programme de transformation autour de projets de Data Engineering. Vous apporterez votre expertise sur la stratégie data, serez impliqué dans l’architecture et l’implémentation, et aurez l’opportunité d’expérimenter de nouvelles technologies. Vous jouerez un rôle clé en guidant les bonnes pratiques, en garantissant la fiabilité, la maintenabilité et la scalabilité des solutions que nous proposons à nos clients. Vos missions Concevoir, développer et déployer des solutions data sur le cloud (principalement AWS, mais aussi Azure ou GCP). Construire et maintenir des pipelines de données performants, sécurisés et automatisés. Travailler sur des architectures modernes type Lakehouse (Hudi, Iceberg, Delta) et appliquer des optimisations (Compaction, Z-Order, etc.). Orchestrer des pipelines avec Airflow et exploiter des environnements Hadoop / Spark. Développer en Python, SQL, Docker, avec mise en place de CI/CD et principes DevOps. Garantir la performance, la disponibilité et la sécurité des applications. Accompagner les membres moins expérimentés de l’équipe et partager les bonnes pratiques. Participer à des projets innovants et contribuer à l’évolution de notre offre Cloud Data Engineering. Profil recherché 5 ans minimum d’expérience pratique dans la construction de pipelines de données sur le cloud (AWS de préférence, Azure ou GCP acceptés). 3 ans minimum en architecture, conception, développement et support de solutions data. Connaissance des bases de données, ETL, BI, Big Data, Machine Learning et Advanced Analytics. Maîtrise des environnements Hadoop, Spark, Airflow. Expérience des architectures Lakehouse. Solides compétences en Python, SQL, CI/CD, automatisation et gestion de conteneurs (Docker). Connaissances de base en services cloud (réseau, sécurité, stockage, IAM). Bonne compréhension des méthodologies Agile et DevOps. Esprit ouvert, curieux et orienté apprentissage continu. Bon relationnel et capacité à collaborer avec des équipes pluridisciplinaires. Excellente communication écrite et orale en français et en anglais. Expérience souhaitée : infrastructures Linux, applications conteneurisées. Ce que nous offrons Participation à des projets data innovants et stratégiques. Un environnement stimulant, multiculturel et orienté partage de connaissances.

Mission freelance
Développeur Python/Spark JUNIOR
CONTEXTE Expérience : 1 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Big Data, Machine Learning, Versioning, Gestion de configuration Pour l'un de nos client, nous sommes à la recherche d'un Dev Python/Spark JUNIOR. Le périmètre concerne la gestion et l’évolution d’une plateforme Big Data & Machine Learning, intégrant des briques transverses et une approche platform-as-code. Celle-ci permet, à partir de spécifications fonctionnelles, d’automatiser et d’accélérer la création de l’empreinte applicative des projets. MISSIONS Dans ce cadre, le Service Engineer intervient pour configurer, livrer et maintenir les environnements cibles des projets en s’appuyant sur les outils mis à disposition par la plateforme. Il exploite les services existants tout en assurant leur bon fonctionnement dans le respect des besoins projets.
Offre d'emploi
Ingénieur DEVOPS/ MLOPS (AWS) Paris
Mettre en œuvre des outils de test, de développement, d'automatisation et des infrastructures informatiques pour l'équipe ML Platform et ses utilisateurs Outils CI/CD, gestion de la configuration Définir et mettre en place des processus de test, de développement, de publication, de mise à jour et d'assistance dans le cadre des opérations DevOps Favoriser l'amélioration continue en créant des pipelines pour l'intégration, le développement et le déploiement Mettre en œuvre les systèmes de surveillance
Offre d'emploi
Ingénieur Intelligence Artificielle / Data Scientist (H/F)
Nous recherchons un(e) Ingénieur(e) en Intelligence Artificielle / Data Scientist pour structurer et porter nos projets IA, en collaboration étroite avec les équipes R&D, produit et en réponse aux besoins clients. Vous intégrez une équipe Tech d’une vingtaine de personnes, organisées en squads produits, et serez impliqué(e) sur l’ensemble du cycle de développement, aux côtés des Tech Leads et Architectes, avec une réelle influence sur les choix d’architecture. Selon vos envies, vous pourrez aussi contribuer aux comités transverses R&D (technique, agile, innovation...). Projets en cours : Analyse automatique de documents réglementaires (NLP + NER) Génération automatisée de workflows, formulaires et rapports intelligents Intégration d’agents IA dans l’interface utilisateur Déploiement de moteurs de recherche sémantique (RAG hybride, reranking, vector search…) Stack technique : IA / Data : Python, Pandas, Scikit-learn, Hugging Face, FastAPI, OpenAI API, PyTorch, TensorFlow (ouvert à d’autres outils) Bases de données : MariaDB, PostgreSQL, MongoDB, Elasticsearch, bases vectorielles (Chroma, Activeloop…), graphes (Neo4J…) DevOps : Docker, Swarm > Kubernetes, GitLab CI/CD Environnement général : PHP / Symfony, Vue.js 3 / TypeScript, Jira, Confluence, architecture microservices Profil recherché : Diplôme Bac+5 en informatique, mathématiques appliquées, IA ou équivalent (école d’ingénieur ou université) Minimum 3 ans d’expérience en Data Science, modélisation et intégration technique, avec idéalement des projets IA à votre actif Compétences techniques essentielles : Maîtrise avancée de Python et des principaux outils IA, Data Science, Machine Learning Bonne compréhension des enjeux liés aux produits SaaS BtoB (performance, robustesse, monitoring) Solides compétences en SQL et gestion de bases relationnelles Maîtrise des bases de données vectorielles (Chroma, Activeloop…) et techniques d’embedding (Word2Vec, GPT…) Connaissance des techniques NER, embeddings, chain of thought, RAG, function calling… Familiarité avec les environnements cloud (Azure, Google Cloud, AWS) Atouts supplémentaires : Connaissance des éditeurs de code assisté par IA (Cursor, Github Copilot) Expérience avec les bases orientées graphes (Neo4J, OrientDB…) Connaissances web PHP / Symfony / Vue.js / TypeScript Vous souhaitez relever des challenges techniques ambitieux et rejoindre une équipe dynamique au cœur d’un projet innovant ? Ce poste est fait pour vous !
Mission freelance
Data Scientist modélisation statistique
Contexte: Lancement d'un programme stratégique de refonte et de modernisation de son système de Pricing & Revenue Management, cœur de la stratégie tarifaire de l'entreprise. Dans ce cadre, nous cherchons à intégrer un Data Scientist senior, expert en modélisation statistique, pour accompagner la refonte de notre modèle de prévision de la demande. Ce poste s’inscrit dans un environnement métier complexe et stimulant, au croisement de la science des données, de l’économie comportementale, et de l’optimisation algorithmique. Objectifs de la mission: Comprendre finement les mécanismes du Revenue Management dans un contexte aérien : dynamiques de réservation, effets prix, anticipation, segmentation, etc. Concevoir, tester et mettre en œuvre un nouveau modèle de prévision de la demande, basé sur des approches de séries temporelles modernes (ML, statistiques bayésiennes, etc.) dans un contexte multi-segments, multi-horizons et incertain. Garantir l’interprétabilité, la robustesse statistique et la fiabilité des prévisions, afin de permettre aux équipes métiers RM d’exploiter efficacement les résultats dans un système de décision. Intégrer une réflexion rigoureuse sur les biais, les sources d’endogénéité, et les incertitudes des modèles, et proposer des moyens de les tester, corriger ou encadrer. Définir et produire des indicateurs de performance prédictive et de qualité statistique, à destination des équipes métiers.

Offre d'emploi
DATA SCIENTIST SENIOR H/F
Nous recherchons un(e) Data Scientist Senior H/F, Spécialiste LLM & Speech to Text RIVA. Missions principales Concevoir, développer et optimiser des modèles d'intelligence artificielle de type LLM (Large Language Models) pour répondre aux besoins de l'entreprise (NLP, génération de texte, résumés automatiques, etc.). Déployer, configurer et intégrer la solution NVIDIA RIVA pour des applications Speech-to-Text à grande échelle. Participer à l'intégration des modèles IA (LLMs & STT) dans l'architecture logicielle de la société. Veiller à la performance, à l'éthique et à la qualité des modèles déployés (précision, biais, robustesse). Former et accompagner les équipes Data/Tech sur les bonnes pratiques liées à l'utilisation des LLMs et des solutions de Speech-to-Text. Réaliser une veille technologique régulière sur l'IA générative, LLMs, Speech Recognition et solutions NVIDIA. Compétences techniques Maîtrise des LLMs (Llama, Mistral, GPT, etc.) : fine-tuning, déploiement local/cloud, prompts engineering, évaluation. Expérience confirmée avec NVIDIA RIVA (installation, déploiement de pipelines de speech-to-text, adaptation à des vocabulaires ou domaines spécifiques). Maîtrise de Python, frameworks ML/NLP (PyTorch, TensorFlow, Transformers, HuggingFace, spaCy, etc.). Expérience sur l'optimisation GPU et le déploiement de modèles IA performants. Maîtrise des API REST, microservices, architecture cloud (AWS, GCP, Azure). Compétences en gestion et traitement de grands corpus textuels et audio.

Mission freelance
Responsable données & intelligence artificielle -(h/f)
Résumé Le Responsable Données & Intelligence Artificielle pilote la stratégie de gouvernance, de valorisation et de sécurisation des données au sein de la DSI, en alignant les équipes Data et IA avec les objectifs métiers pour optimiser la performance des processus de l’entreprise. Responsabilités : Mise en œuvre du Schéma Directeur DATA & IA. Coordination des projets de valorisation de la donnée et déploiement des cas d’usage IA. Reporting régulier et communication auprès des parties prenantes internes. Pilotage des budgets alloués aux projets Data/IA. Définition et évolution de la stratégie de gouvernance des données. Mise en place des politiques, standards et processus de gestion des données. Supervision du data catalog et du dictionnaire de données. Identification et piloting des cas d’usage IA avec les directions métiers. Intégration des solutions IA dans les processus métier. Déploiement des processus de gestion de la qualité des données (DQM). Conformité réglementaire, notamment RGPD. Collaboration pour la sécurisation des données et modèles IA avec le RSSI. Encadrement d’une équipe pluridisciplinaire. Animation des communautés Data. Suivi des indicateurs de performance liés à la gouvernance des données et aux projets IA. Assurer une veille technologique sur les outils IA et pratiques de data governance. Promouvoir les innovations pour améliorer la performance des solutions IA. Compétences clés : Maîtrise des outils de Data Management (Data Catalogs, Data Quality). Connaissances solides des solutions Cloud (Azure, AWS, GCP). Expertise en IA (ML, NLP) et des frameworks associés. Expérience dans la gestion de projets complexes en mode agile. Bac +5 en ingénierie ou spécialisation data/IA. 8 à 10 ans d’expérience en gouvernance des données et IA. Bon à avoir : Expérience dans un environnement DSI structuré. Expérience en cabinet de conseil. Capacité à vulgariser des concepts techniques. Esprit analytique et rigueur. Autres Détails : Localisation : Ile de France 92, déplacements nationaux à prévoir. Encadrement : 8 à 12 collaborateurs (internes et prestataires). Rattachement hiérarchique : Responsable du Socle Technique IT. 2 jours de TT après la période d’intégration

Mission freelance
Data Architecte AWS
Notre client recherche un Architecte Data pour concevoir et superviser la convergence des données issues de sources hétérogènes au sein d’une plateforme cloud AWS à grande échelle. L’objectif est de définir l’architecture cible, modéliser le schéma global, et assurer la cohérence technique et la performance de la plateforme. L’environnement technique inclut : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Définir l’ architecture cible du data layer convergé dans un environnement AWS. Modéliser les données (conceptuel, logique, physique) sur Snowflake et autres bases cibles. Sélectionner les outils et normes d’intégration adaptés aux besoins. Participer au développement et à l’automatisation des pipelines et transformations de données. Superviser la convergence des données multi-source et garantir leur cohérence. Contribuer aux déploiements via Terraform et GitLab CI/CD. Documenter l’architecture et les référentiels techniques. Appliquer les bonnes pratiques de gouvernance, qualité et sécurité des données.

Mission freelance
Un Customer Technology Advisor sur IDF + TT
Smarteo recherche pour l'un de ses clients, Un Customer Technology Advisor sur IDF + TT Périmètre d’intervention : Il pilote la collecte et la qualification des besoins. Il pilote la collecte et la qualification des irritants. Il pilote la création et le suivi des demandes. Il est garant de l’adoption par le cluster et l’entité de l’offre ou fonctionnalité. Il est garant de la co-construction d’une offre. Il est garant de l’adoption en pilote (early adopter) d’une nouvelle offre. Il est garant de l’expérimentation technique. Il est référent sur les connaissances techniques de son domaine produits. Il est garant de l’acculturation et réalise des présentations des offres au cluster ou pour l’entité cliente. Il réalise un premier niveau initial d’accompagnement technique du cluster ou de l’entité cliente. Il est référent du cycle de vie des offres pour l’entité cliente. Principaux livrables : Collecter, consolider les besoins et leurs priorités du cluster et des entités. Co-construire backlogs et roadmaps : alimenter, challenger les backlogs. Préparer les décisions et arbitrages sur les roadmaps des offres proposées par les pôles notamment préparer les dossiers Comité Stratégique pour les CTO et DSI. Identifier les impacts des offres sur le cluster et les entités (techniques, organisationnels, compétences). Promouvoir les offres au sein du cluster et auprès des entités. Identifier et suivre la mise en œuvre des compléments aux offres (fonctionnalité additionnelle, tooling, complément CI/CD.). Animer l’adoption des offres (compléments, prérequis, freins, volumes d’adoption). Apporter ses connaissances techniques auprès du cluster et des entités lors de l’adoption et la consommation des produits. Suivre avec les pôles les indicateurs qualité du run et remonter les dysfonctionnements inhérents au modèle de delivery des produits. Suivre / S'assurer de l'adéquation des services délivrés par rapport aux niveaux de services convenus / attendus dans le cadre du build (indépendamment des process). Compétences requises : Compétence en méthodologie Agile. Compétence ITIL V4. Compétences S.R.E (Site Reliability Engineering). Expérience DevOps et GitOps. Expérience en architecture technique (réseau, infrastructure). Intérêt pour les nouvelles technologies (Cloud Native, DevOps, ML/IA/GenAI, Conteneurisation, Big Data, etc.). Excellentes compétences en communication et pédagogie. Excellente posture relationnelle. Leadership confirmé. Les atouts supplémentaires sont un plus : Technologies ML/IA/GenAI. Connaissances en matière de sécurité et des normes (RGPD, LPM, …). Compétences en anglais (écrit et oral). Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word

Mission freelance
95043/Mission de développement JAVA JEE applicatif NANTES.
Mission de développement JAVA JEE applicatif NANTES. • Maîtrise du langage Java et d'un framework JEE (Quarkus, SpringBoot...) • Maîtrise des outils de test dans l'univers Java (Junit, Mockito, Wiremock...) • Connaissance des pratiques craft (clean code, archi hexagonale) • Des connaissances en Python seraient un plus • Expérience avére avec Docker et Kubernetes • Connaissances en CI/CD et automatisation des dÈploiements (Gitlab CI, Concourse... • Appétence pour les technologies et la technique de manière générale (veille techno, API). • Compétences opérationnelles sur Kafka (admin ,param), Machine Learning • Maîtrise de Git, POO Mission de développement JAVA JEE applicatif NANTES Les tâches demandées sont : - Participer à la conception des produits avec les membres de l'équipe - Assurer le développement des US en tenant compte des bonnes pratiques et des spécificités du client - Déployer les composants dans un contexte Kubernetes ‡ l'aide d'outils de CI/CD - Veiller au maintien opérationnel des produits une fois qu'ils sont déployés en prod Compétences demandées: • Maîtrise du langage Java et d'un framework JEE (Quarkus, SpringBoot...) • Maîtrise des outils de test dans l'univers Java (Junit, Mockito, Wiremock...) • Connaissance des pratiques craft (clean code, archi hexagonale) • Des connaissances en Python seraient un plus • Expérience avére avec Docker et Kubernetes • Connaissances en CI/CD et automatisation des dÈploiements (Gitlab CI, Concourse... • Appétence pour les technologies et la technique de manière générale (veille techno, API). • Compétences opérationnelles sur Kafka (admin ,param), Machine Learning • Maîtrise de Git, POO Qualifications demandées : DIG Digital Transformation Consulting, Apache Kafka, Kubernetes, Java EE (J2EE), Spring Boot.
Mission freelance
CUSTOMER TECHNOLOGY ADVISOR - 758
Contexte de la mission : Nous recherchons, pour le compte d’un client du secteur bancaire basé à Guyancourt, un Customer Technology Advisor pour une mission longue durée. Démarrage : ASAP Durée : 2 ans Localisation : Guyancourt / Télétravail hybride Description du poste : Le Customer Technology Advisor est un interlocuteur stratégique et opérationnel entre les entités clientes et les équipes techniques du cluster. Il joue un rôle central dans l’adoption des offres technologiques, la co-construction de nouveaux services et l’accompagnement technique des entités tout au long du cycle de vie des produits. Responsabilités principales : - Collecte et qualification des besoins et des irritants des entités et du cluster - Création, suivi et priorisation des demandes liées aux offres - Accompagnement à l’adoption technique des offres, fonctionnalités ou expérimentations - Co-construction des offres et participation à leur pilotage en early adoption - Animation de la montée en compétence et acculturation technique des équipes - Conseil technique auprès des entités et des équipes du cluster - Suivi des livrables et de la qualité de service (build & run) - Contribution aux roadmaps et aux arbitrages stratégiques Livrables attendus : - Consolidation des besoins et priorisation - Préparation des décisions pour les comités stratégiques (CTO / DSI) - Définition et suivi des compléments fonctionnels ou techniques aux offres - Support à l’adoption (communication, documentation, accompagnement technique) - Suivi des indicateurs de qualité, remontée des dysfonctionnements - Veille à la bonne adéquation entre services livrés et attentes métiers Compétences requises : - Méthodologie Agile (Scrum, SAFe, etc.) - Maîtrise ITIL V4 - Connaissances S.R.E (Site Reliability Engineering) - Expérience DevOps et GitOps - Bonne culture en architecture technique (réseau, infrastructure) - Forte appétence pour les technologies Cloud Native, conteneurisation, ML/IA, Big Data - Excellentes compétences en communication, pédagogie et coordination - Leadership et capacité d’influence Compétences appréciées : - Maîtrise des technologies ML / IA / GenAI - Connaissances sécurité (RGPD, LPM, normes SSI) - Bon niveau d’anglais professionnel (écrit et oral)
Offre d'emploi
Senior Data Scientist / Software Engineer – Intelligence Artificielle Avancée - 12 mois - Lille
Data Scientist - Lille - 12 mois Un de nos importants clients recherche un Data Scientist pour une mission de 12 mois sur Lille. Descriptif ci-dessous: 🚀 Senior Data Scientist / Software Engineer – Intelligence Artificielle Avancée 📍 Localisation : Lille (flexible avec un présentiel de 3 jrs par semaine sur site) 📅 Démarrage : ASAP 💼 Type de contrat : Mission longue / Freelance ou CDI/CDD selon profil Créez des solutions IA de nouvelle génération pour transformer l’entreprise Vous êtes passionné(e) par l’intelligence artificielle, les architectures LLM (Large Language Models) et le développement de solutions scalables à fort impact ? Nous recherchons un(e) Senior Data Scientist / Software Engineer pour rejoindre notre équipe technique et participer à la conception de solutions IA robustes, innovantes et alignées sur nos enjeux stratégiques. 🔍 Votre mission Intégré(e) au cœur d’une équipe tech agile et ambitieuse, vous piloterez de bout en bout la création d’applications IA modernes basées sur les dernières avancées en deep learning et en engineering LLM. Vos responsabilités principales : 🧠 Conception & Développement de solutions IA Développer des applications IA avancées avec Python, Keras, TensorFlow, LangGraph, LangChain et ZenML Concevoir des infrastructures scalables et performantes, répondant aux normes de documentation et qualité de code 🧩 Pilotage autonome de projets IA Gérer de façon indépendante le cycle complet des projets : design, développement, mise en production Collaborer avec les équipes métier pour s’assurer que les solutions créées répondent à leurs besoins réels 🎯 Expertise et accompagnement Traduire les problématiques métier en solutions IA pertinentes Accompagner les utilisateurs internes dans l’adoption, la compréhension et l’utilisation des outils développés 🛠️ Compétences requises ✅ Python (niveau expert) – Indispensable ✅ Keras / TensorFlow – Expertise avérée ✅ LangChain et LangGraph – Maîtrise avancée requise ✅ ZenML – Compétence confirmée attendue ✅ Documentation technique rigoureuse et respect des standards de développement ✅ Français courant et anglais professionnel (environnement bilingue) 👤 Profil idéal Vous justifiez d’une solide expérience dans la création de solutions IA et de pipelines ML/LLM complexes Vous êtes autonome, proactif(ve), rigoureux(se) et orienté(e) business Vous êtes capable d’articuler des concepts techniques complexes à des interlocuteurs non techniques Vous avez une approche produit et une culture du delivery dans des environnements agiles 🚧 Ce que vous livrerez Des applications IA prêtes à l’emploi, robustes et documentées Une infrastructure data/ML scalable intégrée dans l’environnement technique de l’entreprise Une documentation claire respectant les standards internes Une valeur métier mesurable via l’adoption réussie des solutions déployées ✨ Pourquoi nous rejoindre ? Travailler sur des technos de pointe en IA appliquée (LLM, framework LangChain/Graph, ZenML…) Être acteur d’une transformation tech ambitieuse avec de forts enjeux business Évoluer dans un environnement agile, collaboratif et stimulant Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.

Mission freelance
Développeur Big Data
Description de l'équipe Concevoir, développer et exploiter des produits, services et études innovants pour accompagner les acteurs internes et externes vers la transition écologique en contribuant à l’insertion des VE et des ENR. Activité principale Traitement de données, analyses statistiques Modélisation, création d’algorithmes, machine learning Production de rapports, d’études, de présentations techniques et restitutions aux commanditaires. Accompagnement des développeurs pour l’intégration du modèle dans une application informatique. Activité secondaire Suivi des évolutions méthodologiques en data science appliquée aux réseaux électriques Optimisation des modèles existants

Mission freelance
Data Engineer AWS Sénior
Notre client recherche un Data Engineer senior pour concevoir et maintenir des pipelines de réplication et de traitement de données dans un environnement cloud AWS à grande échelle. Ce poste s’inscrit dans un programme de transformation data visant à développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’exploitation des données. L’environnement technique intègre : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : moteur de recommandation, chatbot IA, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Concevoir, développer et maintenir des pipelines ETL/ELT pour la réplication et le traitement de données issues de sources hétérogènes. Connecter et intégrer les données depuis différentes bases (Exadata, Oracle, etc.) vers AWS. Mettre en œuvre des traitements de nettoyage, mapping, déduplication et enrichissement des données. Collaborer avec les architectes pour appliquer les modèles cibles et les bonnes pratiques de gouvernance data. Automatiser les pipelines via GitLab CI/CD. Concevoir et déployer l’infrastructure avec Terraform, Ansible et Python (IaC). Assurer le monitoring, la qualité et la performance des flux de données. Contribuer aux initiatives FinOps pour optimiser les coûts cloud. Documenter les processus et alimenter les référentiels techniques.

Offre d'emploi
Data scientist - Retail - 3 à 5 ans exp.
Contexte Dans le cadre du renforcement des initiatives Data et IA, le Data Scientist jouera un rôle clé dans la réalisation de projets stratégiques à fort impact. Il/elle interviendra sur des problématiques variées telles que : Prédiction du churn Optimisation des campagnes marketing et promotionnelles Analyse du parcours client Recommandation de produits Anticipation de la demande Activation d’audiences Le poste implique une collaboration étroite : Avec les équipes produit pour comprendre les enjeux métiers, commerciaux et opérationnels. Avec les équipes techniques , notamment les Data Engineers, pour identifier, exploiter et valoriser les données disponibles. Missions Le/la Data Scientist interviendra sur l’ensemble du cycle de vie des projets data : 1. Cadrage & Analyse Recueillir et analyser les besoins métiers. Proposer des solutions de Data Science adaptées aux cas d’usage identifiés. Participer à la qualification, priorisation et pilotage des projets IA. 2. Préparation des données Analyser la qualité et la pertinence des données disponibles. Réaliser les transformations nécessaires pour exploiter les données de manière optimale. 3. Modélisation & Industrialisation Développer des modèles prédictifs en mode POC. Industrialiser les solutions avec les outils et bonnes pratiques MLOps. Documenter les modèles et pipelines mis en œuvre. 4. Valorisation & Suivi Créer des reportings adaptés aux utilisateurs (via Looker ou autres outils). Évaluer les performances et les impacts business des modèles déployés. Organiser les instances de suivi projet (comités, revues, etc.). 5. Animation & Collaboration Contribuer à l’animation des sujets IA dans l’organisation. Participer à la montée en compétence de l’équipe Data Science. Livrables attendus Analyses exploratoires et études statistiques Modèles de Machine Learning (prototypes et versions industrialisées) Tableaux de bord et visualisations Documentation technique et fonctionnelle
Mission freelance
Data Scientist
Le consultant interviendra dans le cadre de projets d’innovation data visant à améliorer l’efficacité opérationnelle et la connaissance client. Il contribuera notamment à : • L’optimisation des mensualisations, • La prédiction du nombre d’opérations de facturation, • L’analyse des courbes de consommation pour segmenter le parc B2C, • La création de modèles prédictifs pour identifier les meilleurs moments d’interaction client. Livrables attendus • Analyses exploratoires des données issues des systèmes métiers (facturation, consommation, contrats, etc.), • Développement de modèles de machine learning (prévision, segmentation, recommandation), • Documentation technique et fonctionnelle des modèles, • Dashboards ou visualisations (Power BI, Tableau), • Scripts industrialisables (Python, SQL), • Restitutions régulières aux parties prenantes métiers.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Machine Learning
Data scientist
Le/La Data Scientist utilise Machine Learning pour développer des modèles prédictifs basés sur des données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresData analyst
Le/La Data Analyst utilise Machine Learning pour automatiser l'exploration des données et identifier des tendances clés.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offresDéveloppeur·euse IA/Machine Learning
Le/ La développeur·euse IA/Machine Learning est spécialisé dans la création de modèles d'apprentissage automatique pour résoudre des problèmes complexes comme la reconnaissance d'images, le traitement du langage naturel ou la prédiction de données.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse IA/Machine Learning .
Découvrir les offresIngénieur·e R&D
L'ingénieur·e R&D conçoit et développe des solutions innovantes en s'appuyant sur les techniques de Machine Learning pour améliorer les produits ou les processus d'une organisation.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e R&D .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La développeur·euse data (décisionnel / BI / Big Data / Data engineer) implémente des modèles de Machine Learning dans des pipelines de données pour extraire des informations utiles et optimiser les processus décisionnels.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offres