Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 464 résultats.
Freelance

Mission freelance
Data Layer - Business Analysis

Net technologie
Publiée le
Big Data

6 mois
Paris, France
Au sein du département informatique du client en charge des développements pour le bénéfice de l’ALM Treasury, nous proposons une mission de type Business Analyst pour contribuer sur un projet central autour de la donnée. Objectifs de la mission: - Formalisation des règles de gestion pour les développeurs et les accompagner dans leur implémentation - Formalisation des cahiers de tests : contribuer à l'approche TDD/BDD - Spécification de l'intégration de nouvelles sources de données : opérations et référentiel - Etudes et analyses du backlog d'équipe - Expertise en mode Agile
Freelance

Mission freelance
DBA Études / Développeur Data (BI)

adbi
Publiée le
Maintien en condition opérationnelle (MCO)
Microsoft SQL Server
Modèle Conceptuel des Données (MCD)

12 mois
Paris, France
Contexte de la mission Le DBA Études intervient sur la conception et l’implémentation des bases de données, depuis la modélisation jusqu’à la construction et l’optimisation des requêtes, en collaboration avec les Business Analysts, analystes développeurs et référents IT Solution. Il est garant des choix techniques de modélisation des tables, de l’application des normes et processus d’industrialisation, et accompagne les projets de la phase de conception jusqu’à la mise en production. Hors projet, il contribue au Maintien en Condition Opérationnelle (MCO) des bases (livraisons, performance) et assure un support de niveau 3 pour l’analyse technique des dysfonctionnements. Missions principales Contribuer à la conception de l’infrastructure accueillant les bases de données en lien avec le Référent IT Solution. Participer au chiffrage des développements BDD et au maintien du référencement des bases hors production ainsi qu’à leur administration. Concevoir les modèles de données (MCD, MPD), réaliser les scripts de création des modèles physiques et garantir le respect des choix techniques du projet. Gérer la configuration logicielle des composants de bases de données et optimiser l’adéquation des modèles et des requêtes (indexation, partitionnement, hints…). Intégrer les composants BDD dans les versions de mise en production et contribuer aux activités de MCO et d’optimisation de performance.
Freelance

Mission freelance
BA DATA VIZ TABLEAU

Mon Consultant Indépendant
Publiée le
Microsoft Power BI

12 mois
540-600 €
Paris, France
MERCI DE NE PAS POSTULER SI VOUS NE DISPOSEZ PAS: · Expérience en environnement bancaire · Maîtrise avancée des outils Tableau et Power BI · Excellent niveau de communication orale Notre client est une société de financement qui a lancé un projet de mise en place de l'outil DATAVIZ Tableau . Vous aurez plusieurs responsabilités au sein de l'équipe projet dont notamment : · Participer à la formalisation des formations / modes opératoires et des procédures pour acculturer les utilisateurs sur l’utilisation du Datawarehouse/ · Animer les ateliers de prototypage utilisateurs et/ou avec le prestataire, · Accompagner la réalisation des tableaux de bords « Tableau » en binôme avec un expert technique de la solution Conception des TDB et reportings sur « Tableau software» Formation de « Tableau software » Etre en lead sur la phase de conduite du changement Accompagner la structuration de la recette et la mise en qualité des données Assurer le lien avec les chefs de projet et experts
Freelance

Mission freelance
DevOps GCP Senior (3 jours/semaine) – Data Platform & Industrialisation

HOXTON PARTNERS
Publiée le
DevOps
Google Cloud Platform (GCP)

6 mois
Paris, France
Description de la mission : Nous recherchons un consultant DevOps GCP senior pour intervenir au sein d’une Data Factory orientée Digital Marketing. La mission s’inscrit dans un environnement data à fort enjeu, avec pour objectif de sourcer des données issues de plateformes Social & Marketing, interfacer des solutions SaaS de Data Connector avec une plateforme Data sur GCP, et industrialiser la création ainsi que le cycle de vie des connecteurs. Le consultant interviendra sur la structuration et l’industrialisation de l’infrastructure et des environnements, avec une forte composante automatisation et fiabilisation des déploiements. Responsabilités : Mettre en place et maintenir l’infrastructure via Terraform (Infrastructure as Code) Structurer et optimiser les pipelines CI/CD (GitHub Actions) Superviser les environnements via Cloud Logging et Cloud Monitoring Gérer la sécurité des accès (IAM, Secret Manager) Déployer et maintenir des services sur GKE et Cloud Run Contribuer à l’industrialisation des flux data et des connecteurs Participer à la rédaction de la documentation technique et fonctionnelle
Freelance

Mission freelance
INGÉNIEUR DATA – DATABRICKS & AWS - DEMARRAGE LUNDI

LINKWAY
Publiée le
Amazon S3
AWS Cloudwatch
AWS Glue

9 mois
450-550 €
Paris, France
MISSION GLOBALE : Rattaché à la direction Data/Analytics, vous concevez, industrialisez et opérez des pipelines à l’échelle sur Databricks intégrés à l’écosystème AWS pour accélérer les cas d’usage data du secteur de l’énergie. Vous mettez en œuvre des traitements batch et streaming avec Spark , Delta Lake et Delta Live Tables , structurez des zones Bronze/Silver/Gold et garantissez qualité, sécurité et gouvernance via Unity Catalog, IAM et Lake Formation . Vous orchestrez l’ingestion depuis S3 , bases et API/IoT, optimisez coûts et performances ( FinOps ) et mettez en place CI/CD , tests et observabilité . En étroite collaboration avec les Data Scientists/Analysts, vous industrialisez des modèles et fonctionnalités MLOps avec MLflow pour des usages tels que prévision consommation/production , optimisation réseau , maintenance prédictive IoT et reporting quasi-temps réel . Vous contribuez aux standards d’ingénierie, à la documentation, au mentoring et à la fiabilité opérationnelle de la plateforme. TÂCHES ET RESPONSABILITÉS PRINCIPALES : • Concevoir, développer et opérer des pipelines sur Databricks (batch et streaming) • Modéliser les données Delta Lake et structurer les zones Bronze/Silver/Gold • Intégrer l’écosystème AWS : S3, Glue, EMR, Lambda, Step Functions, Lake Formation • Assurer qualité, sécurité et gouvernance avec Unity Catalog et IAM • Mettre en place CI/CD, tests et observabilité : optimiser coûts et performances • Orchestrer les workflows (Databricks Workflows, Airflow, Step Functions/ADF) • Industrialiser MLOps avec MLflow en lien avec les Data Scientists • Optimiser les jobs Spark (partitionnement, Z-Ordering, AQE, caching) • Gérer environnements, secrets, artefacts et conformité sécurité • Collaborer avec métiers et data teams pour cadrer et livrer les use cases énergie LIVRABLES CLÉS : • Pipelines Databricks prêts production : traitements batch/streaming robustes et monitorés • Modèle de données Delta Lake : zones Bronze/Silver/Gold documentées et versionnées • Intégrations AWS opérationnelles : S3, Glue Catalog, EMR/Lambda, Lake Formation/IAM • Cadre CI/CD et tests : pipelines de déploiement, validations data et qualité automatisées • Observabilité et FinOps : métriques, alerting, SLO et optimisation des coûts • Chaînes d’orchestration fiables : Databricks Workflows/Airflow/Step Functions prêtes • Capacités MLOps avec MLflow : traçabilité, registry modèles et déploiements contrôlés • Documentation et standards : runbooks, guides d’architecture et bonnes pratiques
Freelance

Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris

EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation

6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Freelance

Mission freelance
Data Analyst Market Data

JobiStart
Publiée le
Market data

3 ans
450-680 €
Paris, France
Data Analyst Market Data Description du poste : Expert de la donnée financière, vous gérez l'ensemble du cycle de vie des Market Data (Bloomberg, Reuters, prix internes) utilisées par les moteurs de valorisation et de risque. Votre mission consiste à assurer la qualité, l'intégrité et la disponibilité des données de marché pour toutes les classes d'actifs (Taux, Change, Actions). Vous concevez des dashboards de contrôle, analysez les anomalies de prix et mettez en place des processus de nettoyage de données via des outils de Data Science. Vous collaborez avec les métiers pour identifier de nouvelles sources de données et optimisez les coûts liés aux flux externes. Vous jouez un rôle clé dans la gouvernance des données de la banque, en veillant à ce que les paramètres de marché injectés dans les modèles de pricing soient conformes aux exigences réglementaires et aux standards de l'institution.
Freelance
CDI
CDD

Offre d'emploi
Expert Data Gouvernance

KEONI CONSULTING
Publiée le
Hadoop
IBM DataStage
PostgreSQL

18 mois
20k-60k €
100-550 €
Paris, France
"Contexte du besoin Dans le cadre de ses missions de définition des politiques de gestion des données et du suivi de leur mise en œuvre, l'activité Gouvernance de la Donnée souhaite renforcer son équipe d'un profil confirmé en la matière. Un accompagnement assorti d'un regard éclairé dans l'exécution des différents pans des missions est demandé MISSIONS · définition des politiques de gestion des données (rôles et responsabilités; · mise en place/alimentation d'un Glossaire métier et d'un Dictionnaire des données; · modalités de suivi de la qualité des données; · modalités permettant d'assurer la sécurité et la conformité réglementaire de l'accès aux données; · articulation avec les capacités de la plate-forme Data choisie par l'entreprise); · mise en oeuvre et suivi de ces politiques, en lien avec les contributeurs nécessaires; acculturation des différentes populations de l'entreprise aux exigences et apports en lien avec la gouvernance des données; · etc.... • Participation le cas échéant au choix des outils de gouvernance des données (rencontres fournisseurs initiées; échanges en cours) • Catalogage / connaissance des données : Définir les standards et bonnes pratiques et en vérifier la bonne application en mobilisant les acteurs requis (SI, métier), assurer l’acculturation nécessaire; • Cartographie des Données : Approfondir la cartographie des données qui aura été initiée (avec les acteurs métier, SI, urbanistes) et être capable de la présenter, la faire adopter et de l’utiliser à des fins de gouvernance des données… • Conformité règlementaire : Garantir que toutes les données respectent les normes internes et externes, en particulier en matière de RGPD et de conformité légale. • Gestion des rôles et animation de la communauté Data : Identifier les relais de la gouvernance dans un contexte de responsabilités fédérées. Mobiliser les acteurs (animation de séminaires, communication…). • Gestion des habilitations : Définir la granularité des habilitations des rôles et utilisateurs identifiés. • Accompagnement de la montée en compétence des autres membres de l'équipe sur des sujets structurants devant être maîtrisés pour mener à bien les missions de l'activité" Livrables attendus "Chapitres thématiques de la politique de Gouvernance des données (rôles et responsabilités; gestion Glossaire/Dictionnaire ; gestion du Data Lineage; sécurité et droits d'accès, dont conformité juridique; Suivi de la qualité des données; process permettant l'évolution de la plate-forme Data" Environnement technique - technologique • couche stockage : TERADATA; HADOOP Cloudera; Postgre • Transformation : DataStage / Spark • BI : Power BI; SAS"
Freelance

Mission freelance
Lead Data Analyst (H/F)

Cherry Pick
Publiée le
Databricks
Microsoft Power BI
Microstrategy

12 mois
550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Lead Data Analyst(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine des mousquetaires. Description 🎯 Contexte de mission Dans le cadre du renforcement du DataLab , nous recherchons un Data Analyst Lead (prestation) rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution , multienseignes et multimétiers, avec de forts enjeux : Pilotage de la performance Qualité et fiabilité des données Modélisation transverse Usages analytiques à grande échelle ⚠️ Contrainte forte : remplacement d’un prestataire sortant 📍 Localisation : France – IDF 🎓 Séniorité : Expert (>10 ans) La connaissance opérationnelle de la Grande Distribution est impérative . 🚀 Missions principales et rôle 🧠 Expertise & Conception Data Apporter une expertise avancée en data analyse Concevoir et challenger des solutions data robustes Accompagner les équipes produits / projets sur des sujets analytiques complexes Garantir la cohérence des indicateurs et des modèles 📐 Modélisation & Structuration Contribuer activement à la modélisation des données Faire vivre et évoluer le modèle de données communes Définir les contrats d’interfaces Structurer et aligner les KPI métiers 👥 Leadership & Animation Contribuer à la montée en compétence des Data Analysts Animer la communauté Data (ateliers, bonnes pratiques, retours d’expérience) Coanimer la Data Authority en lien avec la Gouvernance des données 🚀 Mise en production & RUN Préparer les documents nécessaires aux MEP et au RUN Participer à la mise en place des outils de supervision Contribuer au transfert de compétences vers les équipes RUN Participer aux cérémonies agiles 🔍 Veille & Amélioration continue Assurer une veille technologique active Contribuer à la résolution d’incidents Promouvoir les bonnes pratiques de développement (sécurité, optimisation, documentation) 📊 Objectifs Apporter un leadership analytique au DataLab Structurer les indicateurs stratégiques métiers Améliorer la cohérence et la qualité des modèles de données Accélérer la maturité data dans un contexte Grande Distribution Sécuriser la continuité et la performance suite au remplacement du prestataire sortant 🛠️ Compétences requises 🔹 Hard Skills (Impératif) Expertise confirmée en data analyse Solide expérience en modélisation de données Conception de solutions data Connaissance confirmée de la Grande Distribution : Indicateurs clés (vente, marge, stock, approvisionnement, performance magasin) Enjeux business retail Compréhension des usages métiers de la donnée
Freelance

Mission freelance
Change Manager Data & Cloud – Secteur Assurance (H/F)

CAPEST conseils
Publiée le
Business Object
Conduite du changement
Dataiku

3 mois
Paris, France
Dans le cadre d’un programme de transformation data d’envergure chez un acteur majeur du secteur de l’assurance, nous recherchons un Change Manager Data & Cloud afin d’accompagner les équipes métiers dans l’adoption des nouveaux usages liés à la donnée. Le programme vise à moderniser l’écosystème data, notamment via la migration d’applications vers des environnements cloud et SaaS , et à favoriser une culture data-driven au sein des différentes directions métiers. Vous interviendrez à l’interface entre les équipes data, IT et métiers , avec un rôle clé de vulgarisation et d’accompagnement au changement. Vos missionsAccompagnement à la transformation data Définir et déployer la stratégie de conduite du changement autour des nouveaux outils et usages data. Identifier les impacts organisationnels et métiers liés aux migrations vers des solutions cloud et SaaS . Mettre en place des plans d’adoption pour favoriser l’appropriation des solutions data. Acculturation et vulgarisation de la data Traduire les sujets techniques en messages accessibles pour les métiers . Promouvoir la culture data et les usages analytiques dans les différentes directions. Concevoir et animer des ateliers, démonstrations et formations utilisateurs . Produire des supports de communication et de pédagogie (guides, newsletters, webinars). Adoption des outils analytiques Accompagner les métiers dans l’utilisation des solutions data et BI : Business Objects Tableau Dataiku Objectif : démocratiser l’accès à la donnée et faciliter l’autonomie des métiers dans l’analyse. Coordination avec les équipes techniques Assurer le lien entre les équipes data, IT et les utilisateurs métiers . Contribuer à l’amélioration de l’expérience utilisateur autour des outils data. Participer à la structuration des bonnes pratiques et de la gouvernance data . Profil recherchéExpérience 5 ans ou plus d’expérience en conduite du changement, transformation digitale ou data . Expérience dans des environnements BI, analytics ou data platforms . Une connaissance du secteur assurance ou financier est appréciée. Compétences Capacité à vulgariser des sujets techniques complexes . Bonne compréhension des environnements cloud, SaaS et data analytics . Expérience avec des outils de data visualisation ou BI . Excellentes capacités de communication, animation d’ateliers et gestion des parties prenantes . Qualités attendues Sens du service et orientation métier. Leadership et capacité à embarquer les équipes. Autonomie et esprit d’initiative. Forte appétence pour les sujets data et transformation digitale . Environnement de la mission Secteur : Assurance Environnement : Transformation data et migration cloud Outils : Business Objects, Tableau, Dataiku Mode de travail : interaction forte avec les équipes data, IT et métiers Quelques déplacements à prévoir occasionnellement en province.
Freelance

Mission freelance
Ingénierie Méthodes & Data Analyst (Production Data & Master Data)

Mon Consultant Indépendant
Publiée le
Data analysis

6 mois
540-590 €
Paris, France
Profil recherché : Ingénierie Méthodes & Data Analyst (Production Data & Master Data) Finalité de la mission : Dans le cadre de la mise en place du projet SAP, recherche d'une expertise Méthodes / Logistiques / Data analyst afin de : • Supporter l’équipe dans la structuration et la migration des données de production, méthodes, et logistique usine, entre notre système actuel M3 et notre futur système SAP S/4HANA • Garantir la fiabilité, la cohérence et la qualité des données de production et des « Master Data » dans SAP Missions principales : Gestion & fiabilisation des Master Data Production : • Participer à la revue des Master Data de production (nomenclatures (BOM), gammes de production, postes de charge, fiches article et vues MRP). • Vérifier que les données techniques sont complètes pour permettre la création et l’exécution correcte des OF (BOM active, gamme active, UM cohérentes, conversions d’unité, stratégies MRP…). • Garantir l’intégrité des données utilisées par la planification (MRP) et la logistique interne (PSA, staging, stockage). • Vérification de la cohérence du paramétrage interne à SAP en lien avec les règles de gestion définies • Contribuer en appui du BPO et du Data Manager à l’homogénéisation sur le paramétrage des Data entre usines (exemple pour la sous-traitance de production) • Coordonner et être en soutien du nettoyage des données sources avec les usines et les méthodes • Vérifier la cohérence des données de production vis-à-vis des règles de gestion établies • Participer à la constitution des fichiers de création, de migration et de chargement des données en lien avec notre Data Manager • Proposer éventuellement des améliorations ou des ajustements dans nos choix métiers en cours de définition pour ensuite correction lors de la phase des tests Support & gouvernance data : • Aider à la rédaction des SIT en particulier sur les données de Production, des Méthodes et de la Logistique Usine • Participer à la définition du dictionnaire de données et des règles de gouvernance. • Formaliser pour la Production et les Méthodes, et la Logistique Usine les règles de création, modification des Master Data et des données production à l'aide de procédures
Freelance
CDI

Offre d'emploi
Data Scientist

VISIAN
Publiée le
Machine Learning
Python
SQL

1 an
40k-45k €
140-480 €
Paris, France
Mission La mission d'une institution financière majeure est de contribuer à une croissance responsable et durable par un financement de l'économie dans le respect des plus hauts standards éthiques, en particulier dans les domaines de l'anti-blanchiment d'argent, de la lutte contre le terrorisme, et de la lutte contre la fraude et l'ingénierie sociale. L'optimisation des services opérationnels via la science des données représente une opportunité majeure pour notre entreprise de se démarquer sur le marché. Descriptif du Poste Assurer la recherche de données et la mise au point de modèles performants afin d'assister de nombreuses équipes de la banque commerciale dans leur effort d'identification et d'analyse des comportements suspects. Déployer et intégrer ces modèles dans les infrastructures et flux de travail de l'entreprise en assurant un impact positif et maîtrisé. Profil Recherché Nous cherchons un profil capable de développer et intégrer des solutions avancées de data science appliquée à des données structurées en priorité. Des compétences en traitement du langage naturel (NLP traditionnelle, voire GenAI) seraient un plus permettant de proposer à nos clients internes des fonctionnalités différenciantes et l'évolution en interne du profil vers d'autres projets. Ce profil doit connaître en détail le fonctionnement de nombreux algorithmes d'apprentissage, supervisé comme non supervisé, et être en pleine possession des méthodologies d'évaluation de modèles. Idéalement, le candidat devrait avoir une expérience pratique dans des projets similaires et démontrer une capacité à traduire un problème concret en problème mathématique au moyen des données. Une excellente maîtrise de Python et de SQL est en outre nécessaire. Des compétences de type "soft skills" seront également incontournables, comme la gestion de projet, une écoute de qualité avec les interlocuteurs métier ainsi qu'une bonne communication, et un goût de la collaboration et le partage des connaissances, notamment avec les autres data scientists et les équipes techniques et opérationnelles (MLE, MLOPS, OPS).
Freelance

Mission freelance
Data analyst Tableau Software - Secteur automobile

Mon Consultant Indépendant
Publiée le
Data analysis

12 mois
600-640 €
Paris, France
Pour l'un de nos clients leader de la vente de pièces détachées dans le secteur automobile, vous intervenez en tant que DATA Analyst sur l'outil Tableau software. Vous intégrerez une équipe dynamique pour participer à l'analyse des données issues de nos plateformes. Vous contribuerez aux prises de décision stratégiques et à l'amélioration continue de nos canaux de vente et de nos experts marketing. Compétences clés : Vous maitrisez l'outil Tableau Software et d'autres solutions de BI. Vous êtes à l'aise dans la conception de Tableaux de bord et la formation des équipes utilisatrices Missions Principales : Collecter, analyser et interpréter les données des plateformes Participer à la création de rapports détaillés et de tableaux de bord pour identifier les tendances et mesurer les performances. Collaborer avec la responsable Marketing et offre pour explorer des opportunités d'optimisation. Contribuer à la présentation d'insights et de recommandations basées sur les données aux parties prenantes. Participer à une veille concurrentielle pour saisir les tendances du marché et les innovations. Contribuer à des tests & expérimentations Participer à la mise en place de processus d’automatisation, en collaboration avec les équipes commerciales et techniques.
Freelance
CDD

Offre d'emploi
Product Manager IA

Digimatch
Publiée le
Agile Scrum
AI
Data science

12 mois
70k €
600 €
Paris, France
Pour le département Digital, nous recherchons un(e) Product Manager IA compétent(e), motivé(e) et opérationnel(le), afin de piloter le développement de produits digitaux au sein de la division Taste & Wellbeing. Le/la candidat(e) idéal(e) dispose d’un fort sens du produit (discovery, delivery, run), d’une bonne compréhension des enjeux liés à l’IA et à la data science, ainsi que d’une expérience confirmée dans la gestion de produits digitaux au sein d’environnements complexes et orientés consommateurs. Vous travaillerez en étroite collaboration avec des parties prenantes internationales et des équipes transverses, en prenant la responsabilité de l’ensemble du cycle de vie du produit, tout en garantissant une qualité de delivery élevée, l’alignement business et une performance produit mesurable.
Freelance

Mission freelance
Chef de Projet IA Senior

Gentis Recruitment SAS
Publiée le
Data governance
Dataiku

6 mois
500-650 €
Paris, France
Contexte de la mission Un grand groupe bancaire basé en Île-de-France renforce son dispositif de gouvernance de l’intelligence artificielle dans un contexte de montée en maturité des usages IA et de mise en conformité avec les exigences réglementaires, notamment l’ IA Act . Dans ce cadre, le client recherche un Chef de Projet IA Senior capable de piloter des projets IA complexes et structurants, avec un fort enjeu de gouvernance, de conformité et d’industrialisation des pratiques. Objectifs de la mission Mettre en place et structurer une gouvernance IA au sein de l’organisation Accompagner la mise en conformité des projets IA avec l’IA Act Capitaliser et formaliser les pratiques de gouvernance IA existantes Assurer le pilotage transverse des projets IA (métiers, data, IT, conformité) Outiller la gouvernance via les solutions Dataiku Rôle et responsabilités Pilotage de projets IA complexes en environnement bancaire Définition et déploiement des cadres de gouvernance IA Accompagnement des équipes métiers et techniques sur les enjeux réglementaires IA Mise en place de processus de conformité IA Act (documentation, traçabilité, contrôles) Utilisation avancée de Dataiku , notamment du module Govern Node Coordination des parties prenantes (Data, IT, Risk, Conformité, Métiers) Reporting et suivi de l’avancement auprès des instances de gouvernance Modalités TJM max: : 750 € Présence en Île-de-France requise (2 jours de télétravail)
Freelance

Mission freelance
OP / Analytics Engineer (Consultant Data expérimenté)

OUICODING
Publiée le

1 mois
420-500 €
Paris, France
2) Missions principales (responsabilités) Analyse & modélisation - Réaliser des analyses complexes sur les données et produire des insights actionnables via des méthodologies statistiques. - Concevoir/porter des modèles de données métiers (expertise de la modélisation). - Posture "Conseil" & interface métier - Traduire les besoins métier en exigences techniques, tout en les challengeant et en étant force de proposition. Communiquer avec pédagogie auprès d'équipes techniques et métiers ; animer la communauté de data analystes. Delivery BI / dataviz / UX - Concevoir des rapports pertinents à partir des données analysées. - Porter des propositions UX/UI (wireframes, maquettes, personae) et proposer des visualisations avancées (ex. D3.js). Gouvernance & patrimoine data Rédiger/maintenir les bonnes pratiques de modélisation et développement. Maintenir la connaissance du patrimoine de données et des publications de reporting associées. Développer l'offre Streamlit et maintenir un cadre UX/UI Data ; assurer une veille produit Power BI. Expertise / administration / industrialisation - Administrer le service Power BI (et le "parc"), consolider les métriques d'usage et les données catalogue. - Auditer / optimiser du code (Power BI, SQL, Streamlit) et maintenir le CI/CD Power BI. Sécurité S'approprier et intégrer les exigences Cybersécurité dans les pratiques et livrables.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

464 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous