Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 86 résultats.
CDI
Freelance

Offre d'emploi
ingénieur data / ML -Sénior - (H/F) - Lyon

MSI Experts
Publiée le
Python

3 mois
44k-55k €
410-510 €
Lyon, Auvergne-Rhône-Alpes

Contexte Dans le cadre de son programme stratégique autour de la Data et de l’Intelligence Artificielle, un acteur majeur du secteur Banque & Assurance renforce son équipe centrale de Data Science. Après une première phase de conception et de déploiement de solutions critiques en IA Générative, l’organisation entre dans une étape clé d’ industrialisation, de stabilisation et de montée en échelle . Les projets, fortement visibles au niveau exécutif, nécessitent un pilotage rigoureux par KPIs fiables et orientés business , ainsi qu’une attention particulière à la robustesse et à la pérennité des solutions en production. Mission L’ingénieur Data / ML Senior interviendra sur : La définition, formalisation et mise en œuvre de KPIs pour le suivi des solutions GenAI (qualité, performance, volumétrie, impact métier). L’ industrialisation des projets IA Générative, avec un focus sur le pilotage par indicateurs. Le support opérationnel et la garantie de la stabilité, scalabilité et observabilité des pipelines en production. L’amélioration de la qualité, testabilité et documentation des pipelines de données. Le mentorat et l’accompagnement des profils juniors pour instaurer de bonnes pratiques. La contribution technique sur d’autres initiatives stratégiques de la roadmap (fraude, expérience client, pipelines data).

Freelance

Mission freelance
Project Management GenAI (F/H) - 75

Mindquest
Publiée le
AI
Large Language Model (LLM)
Prince2

3 mois
Paris, France

Contexte Nous sommes à la recherche d'un chef de projet confirmé avec une expérience significative pour notre client dans des environnements IA, data science ou tech-driven. Vous serez en charge de coordonner des projets complexes intégrant des technologies de pointe (GenAI, LLMs, RAG, Machine Learning) et impliquant des équipes pluridisciplinaires (Product Owners, Data Scientists, AI Engineers, pays). Mission - Définir et piloter les roadmaps projets en lien avec la stratégie IA. - Assurer la coordination multi-équipes et multi-pays (tech, business, data, PO). - Garantir le suivi opérationnel : livrables, planning, ressources, budget et risques. - Mettre en place et animer la gouvernance et le reporting auprès des sponsors. - Accompagner le déploiement et l’adoption des solutions GenAI à l’échelle. - Contribuer à la vulgarisation et la pédagogie auprès des parties prenantes.

CDI

Offre d'emploi
Deep learning researcher (Python)

Twenty One Talents
Publiée le

65k-73k €
Paris, France

En tant que Deep learning researcher (Python), vous jouerez un rôle clé dans la recherche et le développement d'algorithmes avancés d'apprentissage profond afin d'améliorer les solutions innovantes de notre département R&D. Vos principales responsabilités seront : • Concevoir et expérimenter des modèles de deep learning adaptés aux problématiques métiers. • Développer des prototypes robustes en Python pour valider les concepts. • Collaborer étroitement avec les équipes data science et ingénierie logicielle. • Analyser et optimiser les performances des modèles déployés. • Participer à la rédaction de publications et de rapports techniques. • Veiller à la veille technologique dans le domaine de l'intelligence artificielle.

Freelance

Mission freelance
Data Engineer

Cherry Pick
Publiée le
Machine Learning
Microsoft Power BI
Python

12 mois
650-680 €
64000, Pau, Nouvelle-Aquitaine

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte Dans le cadre du programme de transformation digitale, l’équipe, basée à Pau, se renforce. Objectif : améliorer la qualité, l’accessibilité et l’exploitation des données opérationnelles via des pipelines robustes, de la gouvernance et des cas d’usage innovants en IA / IA Générative. 🛠️ Missions principales Data Engineering : Définir les processus de gestion de données et d’information des outils digitaux. Développer et maintenir des pipelines robustes (ETL temps réel & batch). Automatiser les traitements (Python ou équivalent). Participer à la modélisation et standardisation des données. Qualité & Gouvernance des données : Développer et maintenir des outils de contrôle qualité (dashboards, alerting, audits). Mettre en place le processus de data management pour les données temps réel (WITSML, WellView). Représenter le groupe dans les forums OSDU / WITSML / RTSC. Data Science & IA : Contribuer à l’intégration de solutions IA et IA Générative pour les cas d’usage métier. Expérimenter, customiser et superviser des modèles ou solutions IA. Accompagnement & Support : Support utilisateurs et animation de la conduite du changement. Supervision des tâches administratives liées aux outils digitaux.

CDI
Freelance

Offre d'emploi
Développeur Go / MLOps

IA Soft
Publiée le
Docker
Gitlab
Go (langage)

6 mois
40k-45k €
300-550 €
Île-de-France, France

Nous recherchons un(e) Développeur Go / MLOps pour l'un de nos clients grands comptes dans le secteur bancaire. Contexte de la mission : L’équipe est responsable de la stabilité, de la disponibilité et de l’évolution des briques techniques de la plateforme Sparrow. Elle conçoit également les fondations techniques (back-end, infrastructure, sécurité, CI/CD) essentielles à son fonctionnement. En tant que prestataire Dev Go / MLOps, tes missions seront les suivantes : Maintenance et évolution : Maintenir et faire évoluer des microservices en Go déployés dans Kubernetes (opérateurs, API internes, etc.). Développer des frameworks Python (back-end ou bibliothèques internes pour Data Science). Gérer les pipelines CI/CD GitLab (build, tests, déploiements). Créer et maintenir du code d'infrastructure (Terraform, Helm, Kustomize, etc.). Développer des outils internes DevOps / MLOps (ArgoCD, GitLab runners, Vault, etc.). Assurer la gestion des outils d’observabilité (Prometheus, Grafana, logs, alerting). Industrialisation de projets IA : Accompagner la mise en production de projets IA provenant d’autres équipes. Intégrer les modèles IA dans la plateforme Sparrow Flow et les déployer sur Sparrow Serving. Participer à des POCs pour tester de nouveaux outils ou pratiques Dev/MLOps. Stack technique : Une stack moderne et riche, avec un fort accent sur DevOps / MLOps : Langages : Go (pour les opérateurs Kubernetes, services back-end), Python (frameworks ML), Bash. Infrastructure & Orchestration : Kubernetes, Docker, Helm, Kustomize. CI/CD : GitLab CI, GitOps, BuildKit. Infra as Code : Terraform. Observabilité : Prometheus, Grafana, ELK, Jaeger. Sécurité / IAM : Vault, Keycloak, Sparrow IAM. Outils IA/DS : ArgoWorkflows, ArgoEvents, pyPF.

CDI
Freelance

Offre d'emploi
Senior Data Scientist

Craftman data
Publiée le
Docker
Large Language Model (LLM)
Python

5 mois
40k-55k €
600-700 €
Paris, France

Poste : Senior Data Scientist Présence sur site : Oui – alternance entre deux sites en France (3 jours toutes les deux semaines sur chaque site) Durée de la mission : Jusqu’au 31/03/2025 – renouvelable Date de démarrage souhaitée : Dès que possible Date limite de soumission : 15/10/2025 Contacts : Service Achats et Équipe Opérationnelle (coordonnées supprimées pour confidentialité) 1. Contexte : Le département IA du Groupe accompagne les métiers et la DSI dans la mise en œuvre de projets d’intelligence artificielle. Dans ce cadre, le consultant interviendra sur la mise en place de la stratégie IA pour le pôle médias du Groupe sur une période initiale de six mois. Le rôle inclut le cadrage des projets, la conception de prototypes et le développement d’algorithmes en collaboration avec les équipes techniques locales et les chefs de projets métiers. 2. Mission : Le consultant fera partie de l’équipe IA et participera à la conception et au déploiement de prototypes IA à destination du secteur média : Conception de Prototypes et Pilotes : Élaborer et développer des prototypes IA pour démontrer la faisabilité et la valeur ajoutée des solutions proposées. Cadrage des Projets IA : Définir les objectifs, les ressources et les étapes clés des projets IA. Conseil et accompagnement : Apporter une expertise stratégique et technique pour faciliter l’intégration des solutions IA dans les processus métiers. 3. Compétences requises : Expérience : Minimum 5 ans en tant que Data Scientist, idéalement dans le secteur des médias ou environnements similaires. Formation : Bac +5 (Data Science, Informatique, Mathématiques, Statistiques). Langues : Maîtrise du français et de l’anglais. Une expérience en conseil data / IA ou en startup est un plus. 4. Environnement technologique : Langages & Frameworks : Python, scikit-learn, TensorFlow, PyTorch, LangChain, vLLM Cloud : GCP (Vertex AI, Gemini, FastAPI) Conteneurisation : Docker Front-end / Prototypage : Streamlit, Flask, éventuellement React 5. Livrables : Prototypes IA sur deux projets à court terme (exemples : agent IA de support commercial, modèle de pricing prédictif). D’autres sujets pourront être ajoutés au cours de la mission. Documentation complète et code structuré. Fiches de cadrage de projet : ROI attendu, solution technique, architecture. 6. Soft Skills : Rigueur : Respect des délais et communication proactive des difficultés. Analytique : Capacité à interpréter des données complexes et à en extraire des insights concrets. Communication : Pédagogie dans la vulgarisation des approches techniques auprès des métiers. Adaptabilité : Gestion agile d’un environnement en évolution rapide et de projets multiples. Esprit d’équipe : Collaboration efficace dans un environnement pluridisciplinaire. Proactivité : Force de proposition sur les optimisations et innovations IA.

Freelance
CDI

Offre d'emploi
Dev Python Data- Anglais courant

AVALIANCE
Publiée le
Modélisation
Python
SQL

2 ans
40k-69k €
400-510 €
Rueil-Malmaison, Île-de-France

Nous recherchons pour notre client dans le secteur du textile un developpeur python data pour une mission longue a Ruel Malmaison Vos taches : • Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…) • Compétences : >> Requises • Modélisation objet (MCD,MPD,UML…) • Architecture logicielle N-tiers, micro-batches et NRT • Développement Python + pandas + pytest + pyodbc + reques ts • SQL avancé (de préférence SQL Server) • Authentification déléguée: Oauth, SAML • Application Lifecycle Management + Unit testing • Anglais courant, écrit et parlé (conversations quotidiennes permanentes avec des équipiers non-francophones) >> Souhaitées • Administration Snowflake • Administration Linux • Administration Windows • Développement pyarrow , duckdb, pyiceberg • Sécurité: cryptographie basique (chiffrement symétrique, hashage en python ; gestion de certificats et clés privées avec openssl) ; gestion des secrets en vault

Freelance
CDI

Offre d'emploi
Ingénieur Intelligence Artificielle / Data Scientist (H/F)

HAYS France
Publiée le
Docker
Natural Language Processing (NLP)
PySpark

3 ans
Nice, Provence-Alpes-Côte d'Azur

Nous recherchons un(e) Ingénieur(e) en Intelligence Artificielle / Data Scientist pour structurer et porter nos projets IA, en collaboration étroite avec les équipes R&D, produit et en réponse aux besoins clients. Vous intégrez une équipe Tech d’une vingtaine de personnes, organisées en squads produits, et serez impliqué(e) sur l’ensemble du cycle de développement, aux côtés des Tech Leads et Architectes, avec une réelle influence sur les choix d’architecture. Selon vos envies, vous pourrez aussi contribuer aux comités transverses R&D (technique, agile, innovation...). Projets en cours : Analyse automatique de documents réglementaires (NLP + NER) Génération automatisée de workflows, formulaires et rapports intelligents Intégration d’agents IA dans l’interface utilisateur Déploiement de moteurs de recherche sémantique (RAG hybride, reranking, vector search…) Stack technique : IA / Data : Python, Pandas, Scikit-learn, Hugging Face, FastAPI, OpenAI API, PyTorch, TensorFlow (ouvert à d’autres outils) Bases de données : MariaDB, PostgreSQL, MongoDB, Elasticsearch, bases vectorielles (Chroma, Activeloop…), graphes (Neo4J…) DevOps : Docker, Swarm > Kubernetes, GitLab CI/CD Environnement général : PHP / Symfony, Vue.js 3 / TypeScript, Jira, Confluence, architecture microservices Profil recherché : Diplôme Bac+5 en informatique, mathématiques appliquées, IA ou équivalent (école d’ingénieur ou université) Minimum 3 ans d’expérience en Data Science, modélisation et intégration technique, avec idéalement des projets IA à votre actif Compétences techniques essentielles : Maîtrise avancée de Python et des principaux outils IA, Data Science, Machine Learning Bonne compréhension des enjeux liés aux produits SaaS BtoB (performance, robustesse, monitoring) Solides compétences en SQL et gestion de bases relationnelles Maîtrise des bases de données vectorielles (Chroma, Activeloop…) et techniques d’embedding (Word2Vec, GPT…) Connaissance des techniques NER, embeddings, chain of thought, RAG, function calling… Familiarité avec les environnements cloud (Azure, Google Cloud, AWS) Atouts supplémentaires : Connaissance des éditeurs de code assisté par IA (Cursor, Github Copilot) Expérience avec les bases orientées graphes (Neo4J, OrientDB…) Connaissances web PHP / Symfony / Vue.js / TypeScript Vous souhaitez relever des challenges techniques ambitieux et rejoindre une équipe dynamique au cœur d’un projet innovant ? Ce poste est fait pour vous !

Freelance
CDI

Offre d'emploi
Expert Spark (Spark /Airflow /Superset )

AVA2I
Publiée le
Apache Airflow
Apache Spark
SQL

3 ans
40k-70k €
400-600 €
La Défense, Île-de-France

Dans le cadre de son initiative Big Data FR sur plateforme Open Source , GRDF recherche un Expert Spark afin de renforcer son équipe Data. L’objectif est de contribuer à la conception, à l’optimisation et au déploiement de pipelines Big Data à grande échelle, avec un focus sur la performance et la fiabilité. 🚀 Missions principales: Participer à la conception et au développement de pipelines de données distribués basés sur Spark. Optimiser la performance des traitements et garantir la scalabilité des solutions. Déployer, monitorer et maintenir les workflows de données via Airflow . Créer et améliorer des dashboards et visualisations de données avec Superset . Collaborer avec les équipes Data Engineering, Data Science et métiers pour intégrer les besoins fonctionnels dans la plateforme Big Data. Assurer une veille technologique et proposer des solutions innovantes dans l’écosystème Big Data Open Source.

Freelance

Mission freelance
Data Engineer F/H - LILLE

Anywr freelance
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL

3 ans
400-500 €
59000, Lille, Hauts-de-France

Notre client, acteur majeur du secteur du Retail, renforce son équipe Data afin de soutenir sa stratégie de digitalisation et d’optimisation de l’expérience client. Dans ce cadre, nous recherchons un(e) Data Engineer passionné(e) par la donnée et désireux(se) d’évoluer dans un environnement stimulant et innovant. Missions principales : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour collecter, transformer et valoriser les données issues de différentes sources (e-commerce, magasins, CRM, supply chain, etc.). Assurer la qualité, la fiabilité et la disponibilité des données pour les équipes métiers, Data Science et BI. Participer à la mise en place d’architectures Big Data et Cloud modernes (Data Lake, Data Warehouse). Contribuer à l’optimisation des performances des traitements de données. Collaborer avec les équipes Data Analysts, Data Scientists et métiers afin de répondre aux besoins business (optimisation de l’expérience client, prévisions de ventes, gestion des stocks…). Mettre en place des bonnes pratiques de développement, de documentation et de monitoring. Environnement technique • Cloud & Data : GCP (BigQuery, Dataform) • Orchestration : Cloud Composer • Transformation : Dataform • Observabilité : Dynatrace • Référentiel & CI/CD : GitLab, Terraform, Cloud Build • Gouvernance & Qualité : DataGalaxy • Documentation & Pilotage : Confluence, JIRA (Scrum)

Freelance

Mission freelance
Ingénieur Data engineering

KEONI CONSULTING
Publiée le
Kubernetes

18 mois
100-500 €
Paris, France

CONTEXTE : Le département Data IA (DaIA) est en charge de mettre à disposition des métiers un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA en développant notamment une plateforme d’enrichissement des métadonnées des contenus (IA & GenAI) Pour cela, nous recherchons une prestation de Data engineering pour nous aider MISSIONS à concevoir, construire et gérer notre infrastructure AWS : Développement de la plateforme de microservices AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les media • Assurer la qualité, la fiabilité et l'accessibilité des données. • Développer les pipelines de traitement de données avec orientation media • Collaborer avec les équipes de data science pour comprendre les besoins en données et mettre en place les solutions appropriées. • Recueillir les besoins avec des métiers ou clients. • Assurer la maintenance et l'optimisation des systèmes de données existants. Livrables attendus : Des analyses, développements et documentations de qualité. Expertises demandées pour la réalisation de la prestation : • Minimum de 4 ans d’expériences significative dans le type d’expertise demandé • Être dans une communication de grande qualité et savoir discuter dans des situations tendues. • Avoir une expérience efficace et rigoureuse de la gestion de produits. • Avoir une capacité à travailler de manière autonome et à gérer efficacement plusieurs tâches simultanément. • Être force proposition et savoir remonter les alertes aux responsables projet ou technique. • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaisse de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et l’utilisation d’API externe : CONFIRME • Connaissance des langages de programmation et de Génie Logiciel (Python) : • Programmation Orientée Objet : MAITRISE • Connaissance et utilisation des Design Patterns standard : MAITRISE • Frameworks/Librairies de tests : MAITRISE • Observabilité applicative : CONFIRME • Mesures de performances : CONFIRME • Expérience avec les bases de données SQL et Graph : CONFIRME • Connaissance des technologies de conteneurisation : o Utilisation de la CLI Docker : MAITRISE o Création et optimisation des images : MAITRISE o Utilisation de docker-compose : CONFIRME o Utilisation de la CLI Kubernetes : MAITRISE o Création et utilisation des déploiements Kubernetes : CONFIRME o Résolution de problèmes sur environnement Kubernetes : CONFIRME o Utilisation de Helm pour le déploiement de workload sur Kubernetes : CONFIRME • Compétence des technologies de CI/CD et Infra as Code : o Expérience du process GitFlow : MAITRISE o Utilisation des commits sémantiques/feature branches : MAITRISE o Mise en place de pipelines/jobs : CONFIRME o Mise en place de process GitOps : CONFIRME o Utilisation des concepts, modules et templates Teraform : MAITRISE o Utilisation de Ansible : CONNAISSANCE o Capacité à travailler en équipe et à communiquer efficacement (Agile, JIRA) : MAITRISE

Freelance

Mission freelance
Administrer DBA/Architect Snowflake

Comet
Publiée le
Snowflake
SQL

12 mois
400-480 €
Île-de-France, France

🎯 Mission Principale Expert technique Snowflake au sein de l'équipe Architecture & Data Engineering, vous êtes responsable de la maintenance et évolution de la Data Platform qui sert l'ensemble des équipes du groupe (Analytics, Data Science & IA, CRM, Pub, Audience, Finance, Streaming). 🔧 Responsabilités Clés Architecture & Stratégie Définition et revue d'architecture du Data Warehouse/Data Platform Développement et maintenance de la stratégie RBAC Formalisation et planification de la roadmap produit (3, 6, 12 mois) Modernisation des paradigmes d'ingestion, transformation et exposition de données Performance & Optimisation Revues de performances SQL et infrastructure Suivi de coûts par application Mise en place de solutions de monitoring et d'alerting Revues de code SQL Support & Accompagnement Support quotidien sur la plateforme Snowflake Référent technique pour les Data Engineers et Data Analysts Accompagnement des équipes sur la faisabilité des projets Facilitateur entre équipes Data, AdTech et métier ⚙️ Stack Technique Compétences Impératives Snowflake - Expert SQL Avancé - Expert Architecture Data Cloud - Expert Technologies Utilisées Python RBAC Terraform Azure (cloud) Azure DevOps / JIRA / Confluence Snowflake Clean Room (plus) 🌍 Environnement de Travail Méthodologie : Agile Scrum Culture : DevSecOps Équipe : 15 personnes Langues : Français courant (impératif), Anglais professionnel ✨ Profil Recherché Qualités Personnelles Bon relationnel et capacité d'adaptation Excellente communication orale et écrite Esprit de veille technologique Aptitude au travail en équipe Compétences Transversales Maîtrise des méthodes Agiles Culture DevOps confirmée Gestion de projet technique Capacité à garantir la pérennité des développements 🎪 Enjeux du Poste Plateforme critique : Infrastructure data stratégique pour le groupe Innovation continue : Exploitation des dernières fonctionnalités Snowflake Optimisation : Maîtrise des coûts et performances Transversalité : Interface entre multiples équipes métier

Freelance

Mission freelance
Senior DevOps Engineer (kub, terraform, Azure cloud)

Pickmeup
Publiée le
Azure
Kubernetes
Terraform

12 mois
450-600 €
Paris, France

Organisation publique qui développe une plateforme technologique sécurisée pour faciliter l’accès à des données à des fins de recherche et d’innovation. Ce projet vise à soutenir des initiatives d’intérêt général en lien avec la santé publique, en garantissant un haut niveau de sécurité et de confidentialité. 🔧 Missions principales Au sein de l’équipe en charge de l’environnement sécurisé, vos responsabilités incluent : Infrastructure as Code (IaC) : conception, déploiement et maintenance via Terraform, Terragrunt, Packer et Ansible Orchestration Kubernetes : gestion des clusters, création et maintien des charts Helm, déploiement des applications Automatisation CI/CD : mise en place et optimisation des pipelines d’intégration et déploiement continus Sécurité : respect des normes de sécurité liées aux données sensibles, mise en œuvre des contrôles d’accès et protection des données Veille technologique : suivi des évolutions cloud, DevOps et sécurité Collaboration : travail en interaction avec les équipes produit, architecture, data science et opérations

Freelance

Mission freelance
Ingénieur Data / ML Sénior (H/F)

Insitoo Freelances
Publiée le
Azure
DBT
IA Générative

2 ans
450-550 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Ingénieur Data / ML Sénior (H/F) à Lyon, France. Contexte : Contexte : Dans le cadre de sa stratégie Data et Intelligence Artificielle, notre organisation souhaite renforcer l’équipe Data Science centrale. Après une première phase de conception et de mise en œuvre de solutions GenAI critiques (Flux & Prestations), nous entrons désormais dans une étape clé d’industrialisation, de stabilisation et de montée en échelle. Les projets sont à forte visibilité auprès des instances dirigeantes. Ils nécessitent la mise en place de KPIs clairs et fiables pour piloter la valeur business, tout en assurant la robustesse et la pérennité technique des solutions. Démarrage souhaité : dès que possible. Les missions attendues par le Ingénieur Data / ML Sénior (H/F) : Mission : Définir, formaliser et mettre en place les KPIs de suivi et de pilotage des solutions GenAI (qualité, performance, volumétrie, business impact). Industrialiser les projets GenAI Flux & Prestations avec un focus sur les aspects KPI et pilotage. Assurer le support opérationnel et garantir la stabilité, scalabilité et observabilité des pipelines en production. Améliorer la qualité, la testabilité et la documentation des pipelines de données. Appuyer techniquement l’équipe sur les autres sujets stratégiques de la roadmap (fraude, CEX, data pipelines). Encadrer et accompagner les juniors dans la mise en place de bonnes pratiques et de rituels qualité. Livrables attendus (2 à 4 mois) : Mise en place d’un cadre de pilotage par les KPIs pour Flux & Prestations (qualité des données, performance technique, usage et impact business). Industrialisation et sécurisation des déploiements GenAI en production. Refactoring du code pour séparation Flux / Prestations avec librairie commune. Amélioration du logging, traçabilité des erreurs et enrichissement des métriques de suivi. Mise en place de tests unitaires/intégration critiques et correction de la CI/CD si nécessaire. Documentation technique, rétro-ingénierie des règles existantes et rédaction de runbooks opérationnels. Appui ponctuel sur les autres projets critiques de la roadmap (fraude, CEX, pipelines data) sur les 6 prochains mois.

Freelance

Mission freelance
Data Scientist Full-Stack Python / Streamlit (H/F)

Cherry Pick
Publiée le
Python
Streamlit

12 mois
590-650 €
Paris, France

Cherry Pick est à la recherche d'un Data Scientist Full-Stack Python / Streamlit (H/F) pour l'un de ses clients. ontexte de la mission Dans le cadre d'un projet de transformation digitale d'envergure pour un acteur majeur de la grande distribution, vous rejoindrez l'équipe en charge d'une plateforme web interne. Ce projet vise à révolutionner la gestion des campagnes de couponing personnalisé en remplaçant les supports publicitaires physiques (kakemonos) par des écrans électroniques (e-paper) en magasin. Ce projet est à la croisée de l'IoT et de la gestion de campagnes marketing. Vos missions et responsabilités En tant que renfort clé pour l'équipe, vous jouerez un rôle central dans la construction et l'évolution des "produits data" de la plateforme. Vos missions principales seront les suivantes : Concevoir et mettre en place le système de mesure de la performance des campagnes, de la collecte des données brutes à la restitution des résultats. Définir les KPIs pertinents en collaboration avec les équipes métier. Traiter, analyser et préparer les données pour le calcul d'indicateurs de performance et d'agrégats statistiques. Automatiser la création d'échantillons et le calcul de la performance des campagnes. Développer et maintenir le front-end de la plateforme à l'aide de Streamlit , en apportant votre expertise pour des développements complexes. Collaborer sur des projets de "data sharing" afin de rendre les données accessibles et exploitables. Environnement Technique Langages : Python, SQL Framework : Streamlit (expertise forte requise) Cloud : GCP (Google Cloud Platform) Services GCP : Vertex AI, BigQuery Outils : GitLab Profil recherché Vous justifiez d'une expérience solide de 6 à 8 ans dans le domaine de la Data Science et de l'ingénierie data, avec un track record de projets complexes et mis en production. Vous maîtrisez parfaitement Python et avez une expertise avérée sur Streamlit , idéalement sur des projets de grande envergure. Une bonne connaissance de l'environnement GCP et de ses services (BigQuery, Vertex AI) est indispensable. Vous êtes autonome, rigoureux et proactif, capable de prendre en charge des sujets de bout en bout. Un niveau d'anglais professionnel est requis.

CDI
Freelance

Offre d'emploi
TECH LEAD BIG DATA

UCASE CONSULTING
Publiée le
Apache Kafka
Apache Spark
Azure

3 ans
35k-67k €
480-980 €
Paris, France

Bonjour, Pour le compte de notre client nous recherchons un TECH LEAD BIG DATA Le domaine d’intervention du Tech Lead Data Engineering comprend les études, l’architecture du SI Big Data, le choix des solutions et outils, le pilotage technique du Build et du Run. Comme référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solutions Big Data, ainsi que le pilotage technique de projets. Sous la responsabilité du responsable du SI Big Data, vous piloterez techniquement les activités de Data Engineering : - étude et prise en compte des besoins de traitement de la data, - gestion des priorités et de la cohérence des besoins, - choix des outils et solutions - conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes - direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé - suivi de la qualité, de la sécurité des données et des traitements, de la performance opérationnelle des traitements - participation et support au delivery nécessitant l’expertise technique et data - veille technologique pour rester à l’état de l’art en matière de traitement massif des données, et d’utilisation de l’IA pour l’automatisation, la prédiction, la génération de data et de code. - support des équipes Data Science et R&D sur le cycle de déploiement/optimisation et industrialisation des solutions d’IA - conception et mise en place d'API pour l'intégration des solutions Big Data avec d'autres systèmes, - développement et intégration de modèles d'IA générative pour des applications spécifiques, - assurer la maintenance et l'évolution des API et des modèles d'IA générative.

86 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous