L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 26 résultats.
Offre d'emploi
📩 Data Engineer / DevOps – Data Platform
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Offre d'emploi
ML Engineer Google Cloud (Python, Vertex AI, BigQuery) – H/F
SMARTPOINT
Publiée le
BigQuery
Google Cloud Platform (GCP)
IA
1 an
50k-70k €
480-640 €
Île-de-France, France
Dans le cadre de l’amélioration de la personnalisation de l’expérience utilisateur , nous constituons une équipe dédiée aux sujets de machine learning et de recommandation en production . Cette équipe data est composée : d’un Product Owner d’un Data Scientist d’un Lead ML Engineer d’un Machine Learning Engineer L’environnement technique repose principalement sur Google Cloud Platform avec notamment : Python Vertex AI BigQuery Cloud Run Airflow API REST Terraform GitLab CI/CD L’objectif est de concevoir, industrialiser et déployer des solutions de machine learning en production , tout en assurant leur performance et leur scalabilité. Missions Au sein de l’équipe data et ML, vous interviendrez sur l’ensemble du cycle de vie des projets de machine learning en production . Cas d’usage et mise en production Concevoir un premier cas d’usage de personnalisation de l’expérience utilisateur Déployer les modèles en production sur Google Cloud Mettre en place des tests A/B pour mesurer l’impact des recommandations Assurer le monitoring et l’évaluation des performances des modèles Industrialisation des modèles IA Concevoir et maintenir des pipelines machine learning robustes et scalables Mettre en place les architectures MLOps Exposer les modèles via des API REST (FastAPI ou Flask) Industrialiser les modèles développés par les Data Scientists Mettre en place des workflows CI/CD Architecture et infrastructure data Structurer et organiser le stockage des données Garantir la scalabilité, la sécurité et la stabilité des environnements Déployer des infrastructures via Infrastructure-as-Code (Terraform) Collaborer avec les Data Engineers et équipes techniques Collaboration et amélioration continue Participer aux phases de cadrage, planification et delivery Contribuer à la documentation technique Réaliser une veille technologique sur les technologies ML et IA Appliquer les bonnes pratiques de développement et d’architecture data
Offre d'emploi
Ingénieur Marchine Learning (ML)
KEONI CONSULTING
Publiée le
Gitlab
Python
SQL
18 mois
20k-60k €
100-500 €
Paris, France
Contexte La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateur et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basée sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Créer un premier cas d’usage en lien avec la personnalisation de l’expérience utilisateur 2. Déployer ce projet et AB tester en production 3. Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la mission consiste à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience dans un environnement data / machine learning Expériences dans le déploiement en production de modèles de machine learning Expériences sur la Google Cloud Platform Expériences avec des technologies de type Flask ou FastAPI Maîtrise des langages Python et SQL Solides connaissances en data : structures de données, code, architecture Connaissances de l’infrastructure-as-code (Terraform) Connaissances du Machine Learning, des concepts liés à l’IA Connaissances des technologies liées à l’IA : tensorflow, sklearn etc Connaissances de Gitlab et Gitlab CI/CD Capacité à vulgariser et à communiquer sur des aspects purement techniques Pratique des méthodes Agile : de préférence Scrum ou Kanban
Offre d'alternance
Data Analyst Backend E-commerce (f/m/d) - Alternance
█ █ █ █ █ █ █
Publiée le
Git
Python
SQL
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Product Owner (h/f)
emagine Consulting SARL
Publiée le
1 mois
111 €
92000, Nanterre, Île-de-France
emagine recherche pour un de ses clients un Data Product Owner . Vos missions : Contribuer à la définition de la vision produit Décliner cette vision en roadmap priorisée et alignée avec les enjeux business. Pilotage de la performance produit. Gestion des stakeholders. Amélioration continue et cadre Data. Participer aux rituels agiles (refinement, sprint planning, review, rétro). Favoriser une culture produit orientée valeur et impact. Votre profil: Expérience confirmée (minimum 5 ans) en tant que Product Owner. Anglais courant Connaissance de Tableau software. Environnement data, BI ou intelligence artificielle, idéalement en contexte agile. Bonne compréhension des enjeux data en environnement complexe : modélisation, qualité des données (accuracy, completeness, etc.), usages et valorisation. Maîtrise des méthodologies agiles, notamment SCRUM. Certification de Product Owner Détails supplémentaires: Ce poste offre l'opportunité de travailler dans un environnement dynamique, orienté données, convenant aux candidats passionnés par la gestion de produit en contexte agile.
Mission freelance
Product Designer Senior
Tenth Revolution Group
Publiée le
Adobe XD
Figma
JIRA
3 mois
Paris, France
Le contexte Notre client est un groupe pharmaceutique international de premier plan, implanté dans plus de 60 pays, dont la direction digitale engage une transformation profonde de ses outils et expériences internes. Dans ce cadre, ils recherchent un Product Designer Senior pour accompagner leurs équipes produit sur l'ensemble du cycle de conception — de la discovery jusqu'à la livraison — sur des interfaces métier complexes à fort enjeu utilisateur. Vos missions Mener les phases de discovery : cadrage des besoins, identification des problèmes utilisateurs, benchmark, analyse de l'existant Conduire des sessions de recherche utilisateur : entretiens, tests utilisateurs, focus groups, restitution d'insights aux équipes produit et métier Concevoir les parcours utilisateurs, wireframes, maquettes haute-fidélité et prototypes interactifs Animer des ateliers de co-conception avec les parties prenantes (PO, métier, dev, data) via des outils collaboratifs Contribuer à l'évolution du Design System : composants, tokens, documentation, cohérence UI Assurer le suivi d'intégration avec les équipes développement et garantir la fidélité des livrables Veiller à la prise en compte des enjeux d' accessibilité tout au long du processus de conception Stack & outils Design & prototypage : Figma (maîtrise avancée exigée), Adobe XD Collaboration & ateliers : Miro, Klaxoon Recherche utilisateur : Maze, Dovetail, Lookback Design System : Figma Tokens, Zeroheight Gestion de projet : Jira, Confluence, Notion Méthodo : Design Thinking, Agile Scrum, Double Diamond Pourquoi cette mission ? Un groupe international avec des enjeux UX réels sur des outils métier utilisés quotidiennement par des milliers de collaborateurs Une mission longue durée qui permet de s'inscrire dans la durée et d'avoir un impact structurant Un périmètre design complet : discovery, research, conception, Design System — pas une mission d'exécution Un environnement exigeant où la rigueur méthodologique est valorisée autant que la créativité
Mission freelance
Business Analyst Data / PO Senior
STHREE SAS
Publiée le
12 mois
75001, France
📍 Paris * 🧑💻 3j TT / 1j présentiel * 🚀 Début : 01/04/2026 * 🔁 Durée : 12 mois (renouvelable jusqu'à 3 ans) 🗂 Assistance technique * FR courant * EN pro - secteur : BANQUE 📊 Domaines : paiements, clients, transactions, finance, Datalake 🎯 Contexte Une personne de l'équipe arrive au terme de ses 3 ans de mission. Départ prévu en septembre, avec passation complète. Environnement à taille humaine, organisation mature, sujets data stimulants et visibilité transverse. Vous intervenez sur un périmètre riche, au cœur de la chaîne de valeur data. 🧠 Votre rôle (Business Analyst Data Senior / PO) Vous interviendrez de bout en bout : Analyse & cadrage Recueil et analyse des besoins métiers Proposition de simplifications / cibles process Rédaction des spécifications (US, AC, règles de gestion) Build & delivery Préparation du backlog et suivi des squads Dev/Ops Validation des développements Contribution aux tests, UAT, déploiement et post-prod Run / BAU Support fonctionnel (incidents & petites évolutions) Suivi de la qualité des données & investigations SQL 🔶 Mission principale : BA Data transverse Focus domaines : paiements, clients, transactions, finance , avec un fort volet spécifications + accompagnement build/BAU et une expertise migration / validation des données . 📦 Livrables Specs fonctionnelles & règles de gestion US / AC, data dictionary, schémas de modélisation Plans de tests & support UAT Support BAU ➕ Livrables additionnels (migration & qualité de données) Stratégie de migration, mapping, règles de transformation Plans de validation (comptages, réconciliations, seuils) Rapports de qualité & readiness cutover ✅ Profil recherché BA Data Senior : autonome, transverse, orienté valeur métier Excellente maîtrise : modélisation , rédaction de specs , tests Très bonne compréhension des environnements Datalake SQL confirmé pour investigations & contrôles fonctionnels Contexte bancaire apprécié (paiements / clients / transactions / finance) Expérience concrète en migration de données : mapping, transformation, qualité, réconciliations, gestion des écarts
Mission freelance
Data Engineer H/F
HAYS France
Publiée le
Data Lake
Microsoft Analysis Services (SSAS)
Microsoft Power BI
1 an
Île-de-France, France
Contexte de la mission Dans le cadre du programme de Digital and Data Transformation , a la charge de la conception, de la livraison et du cycle de vie des data products supportant les initiatives stratégiques data du Groupe. Le Data Engineer interviendra sur la construction et l’évolution des plateformes et pipelines data , la transformation de données brutes en données à forte valeur ajoutée, ainsi que l’amélioration continue des actifs data, en collaboration avec des équipes internationales. Prestation Attendue Data Engineering & Delivery • Conception et mise en œuvre des pipelines ETL / ELT • Développement de jobs ETL réutilisables • Gestion des chargements Delta / Full / Historique • Debugging et résolution d’incidents en production • Mise en œuvre des bonnes pratiques de développement à la mise en production Collaboration & Méthodologie • Travail en étroite collaboration avec le Product Owner, les équipes data et plateforme • Contribution aux phases de Data Scoping / Discovery • Méthodologie Agile • Interaction avec des équipes distribuées (multi‑pays) Livrables • Composants data développés et déployés (code source) • Documentation technique et fonctionnelle • Modèle de données documenté • Rapports d’audit et de sanity check • Rapports de tests d’acceptation • Transfert de compétences et support aux équipes
Mission freelance
Développeur fullstacks JS React / Node.js (Python / FastAPI)
Comet
Publiée le
FastAPI
Full stack
Node.js
200 jours
400-680 €
Île-de-France, France
Bonjour à tous, notamment aux Leads Fullstack (dominante backend) ⚙️ sur React et Node.js (& Python sur FastAPI) 🔎 Je cherche un profil Dev Fullstack à forte dominante Back(+5 ans d’expérience) pour rejoindre une équipe Produit sur une application stratégique en phase d’accélération. L’objectif de la plateforme est de permettre aux équipes Marketing Globales de mesurer, optimiser et amplifier la performance des assets social media à grande échelle. Le MVP est en cours de développement et entre dans une phase clé d’enrichissement fonctionnel, de scalabilité et d’intégration de capacités IA. 💻 Ce que tu vas faire : - Développer et faire évoluer le Back-End de la plateforme (Node.js & Python / FastAPI) - Concevoir et exposer des APIs robustes et scalables pour accompagner la montée en charge - Intégrer des modèles d’IA via Vertex AI en collaboration avec les équipes Data Science et Data Engineering - Optimiser la modélisation et les performances des bases de données (PostgreSQL & MongoDB) - Contribuer au Front-End en React pour assurer une restitution fluide et performante de la donnée - Participer à la phase d’accélération produit et à la préparation d’un déploiement à grande échelle - Travailler dans une équipe Produit Agile (PO, UX, Data Scientist, Data Engineer, Tech Lead) 🎯 Stack & environnement : Node.js / Python / FastAPI / React / GCP / Vertex AI / PostgreSQL / MongoDB 📍 Mission : IDF 🏠 : 2 jours de TT 📅 Démarrage : ASAP Qu'en penses-tu? Une belle fin de journée
Mission freelance
101448/Architecte Data IA Apache Kafka,Cloud Architecture Nantes
WorldWide People
Publiée le
Apache Kafka
12 mois
400-620 €
Nantes, Pays de la Loire
Architecte Data IA Apache Kafka,Cloud Architecture Nantes . Architecture au sein d'une nouvelle plateforme Data IA chez notre client. La mission consiste : - de par son expertise à accompagner le client dans cette transition technologique - à conseiller sur la nouvelle nouvelle architecture cloud-native et orienté self-service en intégrant des solutions modernes telles que Kafka, Iceberg, Trino et S3. - à accompagner l'équipe en charge du socle service data pour challenger les choix d'architecture autour des solutions d'observabilité offertes par OpenMetadata, SODA et/ou Great Expectations par exemple. - à participer à la conception d'architectures robustes et évolutives, tout en garantissant la conformité RGPD et la sécurité des données. - à travailler en étroite collaboration avec les Product Owners, Tech Lead, Data Stewards et DevOps pour assurer l'intégration harmonieuse des nouveaux produits. Qualifications demandées : Apache Kafka,Cloud Architecture.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
26 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois