Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 297 résultats.
Offre d'emploi
Chef(fe) de Projet Data - Lyon (69) (H/F)
█ █ █ █ █ █ █
Publiée le
JIRA
Trello
38k-45k €
69001, Lyon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Chef de Projet Data (H/F)
OBJECTWARE
Publiée le
Data analysis
3 ans
40k-70k €
400-550 €
Île-de-France, France
🎯 Missions🔹 Pilotage projet Cadrer les besoins métiers en lien avec les parties prenantes (Data, IT, Métiers) Définir la roadmap projet et piloter les plannings (budget, délais, risques) Animer les comités projets (COPIL, COMEX, ateliers métiers) Suivre l’avancement des projets et assurer le reporting 🔹 Coordination Data / IT / Métiers Faire le lien entre équipes techniques (Data Engineers, Architectes, BI) et métiers Garantir la bonne compréhension des besoins fonctionnels Superviser les phases de développement, recette et mise en production 🔹 Data & Gouvernance Participer à la mise en place de référentiels de données (Data Catalog, Data Quality…) Contribuer aux sujets de gouvernance (RGPD, qualité des données, lineage) Accompagner les métiers dans l’exploitation et la valorisation des données 🔹 Delivery & Qualité Piloter les phases de recette (UAT) Garantir la qualité des livrables et leur adéquation aux besoins Assurer la conduite du changement auprès des utilisateurs
Offre d'emploi
ML Engineer Google Cloud (Python, Vertex AI, BigQuery) – H/F
SMARTPOINT
Publiée le
BigQuery
Google Cloud Platform (GCP)
IA
1 an
50k-70k €
480-640 €
Île-de-France, France
Dans le cadre de l’amélioration de la personnalisation de l’expérience utilisateur , nous constituons une équipe dédiée aux sujets de machine learning et de recommandation en production . Cette équipe data est composée : d’un Product Owner d’un Data Scientist d’un Lead ML Engineer d’un Machine Learning Engineer L’environnement technique repose principalement sur Google Cloud Platform avec notamment : Python Vertex AI BigQuery Cloud Run Airflow API REST Terraform GitLab CI/CD L’objectif est de concevoir, industrialiser et déployer des solutions de machine learning en production , tout en assurant leur performance et leur scalabilité. Missions Au sein de l’équipe data et ML, vous interviendrez sur l’ensemble du cycle de vie des projets de machine learning en production . Cas d’usage et mise en production Concevoir un premier cas d’usage de personnalisation de l’expérience utilisateur Déployer les modèles en production sur Google Cloud Mettre en place des tests A/B pour mesurer l’impact des recommandations Assurer le monitoring et l’évaluation des performances des modèles Industrialisation des modèles IA Concevoir et maintenir des pipelines machine learning robustes et scalables Mettre en place les architectures MLOps Exposer les modèles via des API REST (FastAPI ou Flask) Industrialiser les modèles développés par les Data Scientists Mettre en place des workflows CI/CD Architecture et infrastructure data Structurer et organiser le stockage des données Garantir la scalabilité, la sécurité et la stabilité des environnements Déployer des infrastructures via Infrastructure-as-Code (Terraform) Collaborer avec les Data Engineers et équipes techniques Collaboration et amélioration continue Participer aux phases de cadrage, planification et delivery Contribuer à la documentation technique Réaliser une veille technologique sur les technologies ML et IA Appliquer les bonnes pratiques de développement et d’architecture data
Mission freelance
Data analyst monetique
Deodis
Publiée le
MySQL
1 an
450-550 €
Île-de-France, France
Au sein d’une Datafactory dédiée aux moyens de paiement, le Business Analyst Data contribue à la collecte, à la transformation et à la gestion des données de paiement et des données clients afin d’en garantir la qualité, la sécurité et l’intégrité. Il participe à la mise à disposition de ces données pour les équipes métiers et les différentes équipes data, notamment à travers la production de reportings et de tableaux de bord (Power BI) ainsi que l’alimentation de systèmes opérationnels. En collaboration avec les data engineers, data visualization specialists et le Product Owner, il anime des ateliers avec les parties prenantes, rédige les spécifications fonctionnelles et techniques, développe les user stories, réalise les phases de recette des traitements de données et accompagne les utilisateurs dans l’exploitation des données. Il intervient dans un environnement agile et contribue à l’amélioration continue des produits et services data.
Mission freelance
Data Product Manager – Data & BI Platform
Comet
Publiée le
Microsoft Power BI
1 an
400-550 €
Île-de-France, France
Dans le cadre de la transformation Data de Saint-Gobain Mobility , nous recherchons un Data Product Manager senior pour piloter plusieurs initiatives stratégiques autour des plateformes Data & BI . Vous interviendrez au sein d’un environnement international, en collaboration étroite avec des architectes data, data engineers, équipes BI et métiers (Sales, Finance, Manufacturing, Supply Chain, Purchasing) . L’objectif : structurer et piloter un portefeuille de produits data alignés avec les besoins business et la stratégie Data du groupe. Vos missions Piloter l’étude et le cadrage de projets Data & BI Recueillir et formaliser les besoins métiers Animer des workshops avec les stakeholders Structurer l’architecture fonctionnelle et les flux data Concevoir les modèles de données et business layers Coordonner les équipes Data Engineers / Architectes / BI Évaluer la valeur business des solutions proposées Préparer les roadmaps, budgets et planning de delivery Formaliser les propositions de lancement projet Environnement & sujets clés Plusieurs initiatives structurantes sont en cours : Migration vers une Cloud Data Platform Migration MicroStrategy → Power BI Structuration des produits data dans une logique Data-as-a-Service Cas d’usage métiers : Sales Finance Manufacturing Supply Chain Purchasing
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Mission freelance
Business Analyst Finance DATA / IA - Paris
Net technologie
Publiée le
Big Data
Elasticsearch
Méthode Agile
9 mois
Paris, France
Dans le cadre d’un programme réglementaire stratégique, nous recherchons un Senior Business Analyst pour contribuer à l’industrialisation d’une plateforme globale de Front Office destinée à renforcer la supervision des activités de trading et de sales. 🎯 Objectif : développer une plateforme de monitoring couvrant communications, ordres, transactions et données associées , intégrant des technologies d’analyse avancées (NLP / IA). 🚀 Missions Recueil et formalisation des exigences fonctionnelles et use cases Rédaction des spécifications fonctionnelles et techniques Coordination avec les Data Engineers et les équipes projet Participation aux sprints Agile et suivi des livraisons Conception de la stratégie data pour l’analyse multi-sources Organisation et pilotage des tests UAT Collaboration avec les équipes Business, Compliance et IT
Offre d'emploi
Senior Looker / LookML Developer
xITed
Publiée le
BigQuery
Google Cloud Platform (GCP)
Looker Studio
6 mois
40k-66k €
400-600 €
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme Data et de la modernisation des outils de Business Intelligence, un Senior Looker / LookML Developer est recherché afin de renforcer une équipe Data. La mission consiste à intervenir sur la structuration des modèles de données, le développement de dashboards et l’accompagnement des équipes métiers dans l’utilisation de la solution Looker. L’intervention se fera au sein d’une équipe composée de Data Engineers, Data Analysts et Product Owners, dans un environnement international et agile. Missions principales Développement Looker / LookML Conception et développement de modèles LookML (views, explores, dimensions, measures) Mise en place des bonnes pratiques de modélisation Optimisation des performances des requêtes Data Modelling Modélisation des données pour l’analyse et le reporting Collaboration avec les équipes Data Engineering pour structurer les datasets Mise en place de standards de gouvernance des données Data Visualisation Création et maintenance de dashboards Looker Définition et structuration des KPI métiers Amélioration de l’expérience utilisateur des dashboards Accompagnement métier Recueil des besoins auprès des équipes métiers Animation d’ateliers fonctionnels Support et accompagnement des utilisateurs Environnement technique Looker / LookML Google Cloud Platform BigQuery SQL Git
Mission freelance
Data Gouvernance
Kamatz
Publiée le
Apache Airflow
Collibra
Data governance
6 mois
Lille, Hauts-de-France
Freelance Data Catalog Engineer – Collibra Mission – Data Platform / Data Governance Nous recherchons un(e) Freelance Data Catalog Engineer spécialisé(e) Collibra pour accompagner l’évolution et l’intégration du Data Catalog au sein d’un écosystème data moderne. Vos missions Configuration & développement Collibra Concevoir et implémenter des solutions répondant aux besoins métiers Administrer et configurer le Data Catalog (workflows, assets, modèles) Développer et déployer des workflows adaptés aux cas d’usage Recueillir, analyser et prioriser les besoins utilisateurs Intégration Data Platform Participer à l’intégration du Data Catalog avec les outils de la Data Platform Développer et maintenir les échanges de métadonnées (APIs, connecteurs, crawlers) Configurer les capacités Edge selon les périmètres de collecte Collaborer avec les équipes architecture et data engineering Data Governance & Qualité Contribuer aux initiatives de gouvernance des données Intégrer les indicateurs de qualité (Data Quality Metrics Store) Participer au programme Data Contract Compétences techniques attendues Solide expérience sur Collibra Data Catalog (configuration, administration, workflows) Maîtrise des APIs, connecteurs et intégration de systèmes Bonne compréhension des architectures Data Platform / Data Lake / Data Warehouse Expérience en data governance et gestion des métadonnées Connaissance des outils de data quality est un plus
Offre d'emploi
TECH LEAD DATA – PALANTIR / PYSPARK / PYTHON
OCTOGONE
Publiée le
PySpark
Python
6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Tech Lead Data disposant d’une forte expertise sur l’écosystème data moderne et les technologies Palantir. En tant que référent technique, vous interviendrez sur la conception, l’industrialisation et l’optimisation de pipelines data à forte volumétrie, tout en accompagnant les équipes dans la mise en œuvre des bonnes pratiques de développement et d’architecture. Responsabilités principales • Concevoir et piloter l’architecture des pipelines data • Développer et optimiser des traitements distribués en PySpark • Développer des composants et scripts en Python pour le traitement et l’orchestration des données • Intervenir sur les environnements Palantir (Foundry ou équivalent) • Encadrer techniquement les équipes data (data engineers / analysts) • Garantir la qualité, la performance et la fiabilité des pipelines • Participer aux choix d’architecture et aux décisions techniques • Collaborer avec les équipes métiers et les architectes data Compétences requises • Forte expertise Python et PySpark • Expérience confirmée sur des architectures data distribuées • Expérience sur la plateforme Palantir (Foundry idéalement) • Maîtrise des problématiques d’industrialisation data (ETL, orchestration, performance) • Expérience en rôle de Tech Lead ou référent technique • Bonne compréhension des enjeux data à grande échelle
Mission freelance
Tech Lead Data GCP
UCASE CONSULTING
Publiée le
DBT
GenAI
Google Cloud Platform (GCP)
1 an
400-600 €
Île-de-France, France
📢 Poste à pourvoir – Tech Lead Data GCP/Python (H/F) Bonjour à tous 👋 Je recherche un(e) Tech Lead Data Senior pour intervenir sur une mission stratégique autour d’une Data Platform moderne orientée Cloud & innovation 🚀 🎯 Contexte Dans le cadre d’un programme de transformation ambitieux, vous intégrerez une Data Factory en charge de : Construire et faire évoluer une plateforme data cloud Industrialiser les workflows data Déployer des solutions innovantes autour de la data et de l’automatisation Diffuser les bonnes pratiques data au sein des équipes 👉 Environnement dynamique avec une forte culture produit et innovation 🚀 Missions principales : Concevoir et développer des data products (jusqu’à 80% de dev) Participer au cadrage technique et aux études d’impact Mettre en place des architectures data robustes et scalables Assurer la qualité du code (review, bonnes pratiques) Accompagner et challenger les Data Engineers Gérer les incidents complexes (niveau 3) Documenter les solutions (architecture, flux, data models) 🛠️ Stack technique : Langages : Python, SQL, Shell Data & Cloud : GCP (BigQuery, Dataflow, Cloud Storage), DBT Streaming / ingestion : Kafka, Kafka Connect, SFTP DevOps / CI-CD : Docker, Kubernetes, Terraform, GitLab BI / Restitution : Looker + Bonus : Automatisation / IA (n8n, outils GenAI) ✨ Les + Projet structurant avec forte visibilité Environnement moderne (Cloud, Data, IA) Forte autonomie et impact technique Équipe orientée innovation ⏱️ Mission 📅 Démarrage : ASAP 📌 Télétravail : 50% 📍 Localisation : Île-de-France
Offre d'emploi
AI ENGINEER - DATA SCIENTIST
SMILE
Publiée le
Data science
Pilotage
Python
6 mois
Paris, France
Au sein de la DSI Corporate d’un grand groupe bancaire, le département Développements Tactiques de la direction Fast Delivery Solutions recrute un Expert Leader Data & IA . Cette direction a pour but de mettre en place des solutions rapides au service de l'ensemble des directions métiers et des fonctions supports, en réponse à des besoins ponctuels ou pérennes. En lien avec les DSI métiers, elle en assure la maintenance et participe à leur éventuelle intégration dans le SI. Pour ce faire, elle met au service des filières métiers une équipe de proximité multi solutions afin de les aider dans leurs travaux ponctuels, la réalisation de POC (Proof Of Concept), de reportings ou bien encore l’automatisation de tâches récurrentes. La mission se situe au sein du département Développements Tactiques qui a pour mission de : Développer des outils en mode commando et en proximité directe avec le métier. Mettre en œuvre des solutions faisant appel à de l’IA générative pour répondre à des besoins métier. Accompagner l’industrialisation de ces solutions dans le parc applicatif des DSI filières. Étudier la possibilité de mise en œuvre de solutions innovantes, au travers d’une veille technologique et d’études d’opportunités. Participer à des évènements et animations de démo ou d’ateliers autour de l’IA ou de la data. L’équipe, actuellement constituée de 19 membres (Data Engineers, Data Scientists et Développeurs FullStack), fonctionne entièrement en mode agile et en proximité avec les métiers. Jeune, dynamique, motivée et très proactive, l’équipe valorise l’entraide et la bonne ambiance. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les soft skills sont donc autant essentielles que les compétences techniques : bon communiquant, motivé, force de proposition et sociable. Compétences techniques déjà présentes dans l’équipe : Développement autour de l’IA Générative. Développement Python / Pycharm. Développement Front Angular. Développement de cas d’usage IA générative à destination du business. Développement PySpark / Spark / Scala. Connaissance des plateformes Cloud. Mise en œuvre de workflows sous Alteryx. La mission : L’équipe se voit confier un nouveau programme visant à mettre en œuvre un ensemble de Use Cases faisant appel à de l’IA générative ou consistant à automatiser des traitements. Pour faire face à ce nouveau programme, nous souhaitons renforcer nos compétences avec un AI Engineer confirmé Data & IA . Principales missions : Innovation et réalisation de POCs : assurer la faisabilité technique des cas d’usage, développer des POCs autour de projets IA générative, proposer des solutions innovantes (LLM, prompts, RAG, traitement de données complexes). Industrialisation : en collaboration avec la production applicative et les contributeurs DSI, industrialiser les sujets dont les POCs s’avèrent concluants. Expertise Data & IA Générative : leader techniquement les projets, en s’appuyant sur les technologies internes (plateforme cloud, outils IA, modèles de langage type Gemini). Force de proposition : identifier des axes d’amélioration et proposer des solutions innovantes. Partage de connaissances : contribuer à la montée en compétences collective au sein de l’équipe. Suivi des sujets : assurer une communication claire et synthétique au responsable de l’équipe et aux Product Owners.
Offre d'emploi
Développeur Python – IA / DevOps (H/F)
NSI France
Publiée le
Python
1 an
50k-55k €
500-600 €
Île-de-France, France
Nous recherchons un Développeur Python confirmé , doté d’une forte expertise technique, d’une appétence pour l’IA et d’une réelle sensibilité DevOps. Ce poste ne vise pas un profil Data Scientist ou Data Engineer : il s’agit d’un rôle de développeur Python haut niveau , capable d’intégrer, d’opérer, d’industrialiser et de fiabiliser des services IA. Responsabilité de la mission Intégrer et maintenir les services d’IA au sein d’une plateforme IA interne . Déployer et maintenir les composants de l’IA générative : LLMs, modèles d’embeddings, bases vectorielles, agents, orchestrations. Accompagner l’identification et le déploiement de cas d’usage IA pertinents au sein du groupe (contexte international). Maintenir les plateformes permettant la publication des services IA et les frameworks associés. Maintenir la plateforme de R&D mise à disposition des data scientists et leur apporter un support technique. Participer activement à la réduction de la dette technologique, notamment via la containerisation et l’industrialisation des composants.
Mission freelance
Expert en Modélisation de Données / Référentiels
Castelis
Publiée le
Master Data Management (MDM)
Modèle Conceptuel des Données (MCD)
Modèle Logique des Données (MLD)
6 mois
550-600 €
Guyancourt, Île-de-France
Dans le cadre d’une forte accélération de ses activités Data, notre client engage plusieurs projets structurants autour de la modélisation de données , de la construction de nouveaux référentiels et potentiellement de la mise en place d’une démarche MDM (Master Data Management). L’environnement comporte un volume significatif — plus de 250 millions de transactions financières — nécessitant une architecture robuste et une modélisation de données exemplaire. Le consultant interviendra en tant qu’ expert référent , au cœur des projets data stratégiques, en interaction directe avec les équipes Data, Architecture, Métiers et IT. 1. Modélisation de données Élaborer les modèles MCD/MLD/MPD selon les standards du client. Définir les entités, attributs, règles de gestion, relations et constraints d’intégrité. Documenter le glossaire , le data dictionary et le data lineage . 2. Construction des référentiels Définir les règles de gestion des données maîtres (golden records, survivorship, matching). Structurer les référentiels (clients, produits, fournisseurs, structures, etc. selon le périmètre). Identifier les sources, cibles et flux associés. 3. Appui à la stratégie Data / MDM Participer au cadrage et à la définition de la future architecture MDM (si retenue). Apporter un regard expert sur les principes de gouvernance associés. Collaborer avec les squads Data, IT et Métiers. 4. Interaction avec les équipes Faciliter les échanges techniques/fonctionnels entre Data Engineers, Architectes et Métiers. Être garant de la cohérence globale du modèle dans un environnement multisolutions. Accompagner la montée en compétence des équipes internes.
Mission freelance
Ingénieur DATA
HAYS France
Publiée le
Python
SQL
6 mois
350-510 €
Lille, Hauts-de-France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand acteur du retail, nous recherchons un Data Engineer capable d’intervenir sur des sujets variés autour de la Finance et de la Supply Chain . L’environnement est agile, pragmatique, peu structuré (non bancaire), nécessitant une vraie capacité d’adaptation et une forte autonomie. Missions 🔹 Développement & Intégration de données Conception et développement de pipelines Stambia Modélisation, optimisation et transformations de données dans Snowflake Développement et maintenance de modèles DBT (tests, documentation, exposures) Contribution aux bonnes pratiques : Git, qualité, tests, CI/CD 🔹 Finance Refonte de dashboards réseau Travaux autour du compte d’exploitation Amélioration de la fiabilité et disponibilité des données financières 🔹 Supply Chain Mise en place de KPI logistiques (WSR, SOTR…) Industrialisation des datasets existants ou à construire 🔹 Outils & Automatisation Participation au développement d’outils internes en Python / Streamlit (selon compétences)
Offre d'emploi
Proxy Product Manager
Ela Technology
Publiée le
JIRA
Trello
6 mois
40k-45k €
400-460 €
Auberville, Normandie
Rejoignez une équipe innovante et prenez part au déploiement mondial d’une solution digitale stratégique , utilisée par plus de 3000 utilisateurs dans 550 sites à travers le monde . En tant que Proxy Product Manager , vous jouerez un rôle clé entre les besoins métiers internationaux et les équipes de développement, pour maximiser la valeur d’un produit digital à fort impact opérationnel. Vous contribuez à l’évolution, à la performance et à l’adoption d’un produit digital majeur. Votre rôle s’articule autour de 4 axes principaux : 🚀 1. Stratégie & Backlog (BUILD) Collecte des besoins auprès des Key Users internationaux Priorisation du backlog en fonction de la valeur métier et du ROI Définition des User Journeys et transformation en Epics/fonctionnalités Suivi du développement via JIRA Coordination UI/UX via Trello Gestion des synergies avec les autres outils de l’écosystème digital 📊 2. Pilotage de la valeur & KPIs Suivi des KPIs d’usage et de performance Analyse des données d’utilisation pour améliorer continuellement le produit Communication régulière des résultats aux parties prenantes 🤝 3. Animation & rituels agiles Préparation/participation aux ComOp Animation des Revues de Sprint Coordination mensuelle avec les Key Users internationaux Suivi opérationnel via Smartsheet 🔐 4. Support, Cybersécurité & Documentation (RUN) Supervision des tickets Level 2 & 3 via ServiceNow Contribution aux remédiations cybersécurité Rédaction/mise à jour de la documentation technique et utilisateur Mise à jour régulière des release notes 🎓 5. Formation & Dashboarding Participation aux sessions de formation utilisateurs Mise en place de dashboards DataStudio avec le Data Engineer/Analyst 👥 Écosystème avec lequel vous collaborerez UX/UI Data Engineer / Analyst Product Sales & Communication Manager Product Owner Développeurs Experts métiers & Key Users internationaux Équipes cybersécurité, service management, data, communication
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
297 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois