Trouvez votre prochaine offre d’emploi ou de mission freelance Dataiku à Paris
Votre recherche renvoie 13 résultats.
Mission freelance
DATA SCIENTIST EXPERT / DATA PRODUCT – DATAIKU (H/F) 75
Publiée le
Apache Spark
Dataiku
PySpark
6 mois
Paris, France
Télétravail partiel
Contexte: Dans un contexte de structuration et de montée en maturité des usages Data au sein d’une Direction Financière, la mission vise à renforcer les capacités analytiques autour de la prévision du chiffre d’affaires. L’objectif est de concevoir et d’industrialiser un produit Data stratégique permettant une projection automatisée et multidimensionnelle du chiffre d’affaires (produits, zones géographiques, canaux de vente, infrastructures). Le consultant interviendra au cœur d’une organisation Finance & Data, en tant que référent Data Finance, à l’interface entre les équipes Finance, Data et Produit. Missions: Concevoir, maintenir et faire évoluer un produit Data de projection du chiffre d’affaires Développer et industrialiser des modèles de prévision intégrant des mécanismes basés sur les volumes Permettre des ajustements manuels des projections par les équipes métiers Garantir la qualité, la fiabilité, la traçabilité et l’exploitabilité des données Développer et maintenir des pipelines de données sous Dataiku Implémenter des traitements SQL avancés et des flux de transformation complexes Exploiter Spark / PySpark pour gérer des volumétries importantes Automatiser, monitorer et documenter les chaînes de traitement Mettre en œuvre des contrôles de qualité et contribuer à la gouvernance des données financières Rendre les modèles explicables et actionnables pour les équipes Finance Mettre à disposition les données projetées dans le datalake Collaborer étroitement avec les équipes Finance, Data et Produit Participer aux rituels agiles et au suivi des livrables via des outils de gestion de projet
Mission freelance
Business Analyst Plateforme Data IA
Publiée le
Dataiku
SAS
1 an
500-550 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Business Analyst Plateforme Data IA. Compréhension fine des enjeux de développement de cas d'usages Data et déploiement de l'IA Gen pour les équipes du Client (développements privatifs et enjeux de communautarisation) Participer au suivi du projet d' IA Studio en appui au dispositif existant (apport d'expertise sur le choix de solutions, valeurs et contraintes d'environnement et d'architecture, participer à la feuille de route d'implémentation qui doit permettre l'ouverture des premières fonctionnalités en 2026 Capacité à anticiper, planifier les réunions nécessaires pour construction des livrables, Participation à la construction du dossier de cadrage (cadrage à terminer devant reprendre les éléments pertinents des séquences passées), aide à la construction des documents clés comex produits, ateliers PU/CR, documents préparatoires intermédiaires, échanges avec les parties prenantes des équipes du PP/PU Data et dans l'écosystème du Client (ex architecture...)/infogérant du Client en détaillant le retroplanning cadencé avec les jalons identifiés sur 2026. Connaissance plateforme Data dont SAS Viya (solution et intégration des capacités IA Gen...), Dataiku...
Mission freelance
Développeur Dataiku Expérimenté (>5 ans)
Publiée le
Dataiku
12 mois
400-610 €
Paris, France
Télétravail partiel
Contexte Dans un programme stratégique de convergence Risques / Finance , le client vise à unifier et fiabiliser la production des reportings réglementaires (FINREP, COREP, SURFI…). L’objectif : mettre en place un socle unique pour la collecte, la préparation, le contrôle et la traçabilité des données réglementaires. Le consultant interviendra sur les volets Collecte et/ou Socle Technique , autour du développement de nouvelles fonctionnalités ou de l’amélioration du existant, dans un cadre méthodologique en V au sein d’une équipe fonctionnant en Scrum . Une montée en responsabilités vers un rôle de référent Dataiku est prévue selon la maîtrise des sujets. Missions Développer des fonctionnalités data au sein de Dataiku (recettes, scénarios, pipelines). Améliorer les bonnes pratiques de développement, d’industrialisation et de tests. Participer à la conception avec la Product Team et challenger les solutions proposées. Réaliser les tests , diagnostics et optimisations des pipelines existants. Contribuer au partage de connaissances et à la montée en compétence des développeurs juniors. Participer activement à la vie de l’équipe agile (daily, sprint planning, refinement, reviews). Compétences Techniques Requises Dataiku (recettes avancées, scénarios, API, partitions) – certifications appréciées. Python (manipulation data, librairies standards). Datastage . Spark . Unix / Shell . Bases de données relationnelles : DB2, Oracle… SQL avancé. Compétences appréciées Environnements OpenShift / Kubernetes / Docker . Connaissances en programmation objet (Java, C#…). Culture data dans des environnements Risk/Finance ou réglementaire bancaire. Profil recherché Minimum 5 ans d’expérience en développement Dataiku dans des contextes complexes. Capacité à évoluer en mode produit et à travailler en interaction avec Risques, Finance, IT. Autonomie, rigueur, capacité d’analyse et communication claire. Expérience en environnement bancaire fortement appréciée.
Mission freelance
Lead Data Quality Analyst
Publiée le
Dataiku
Qlik
ServiceNow
12 mois
600-700 €
Paris, France
Télétravail partiel
En tant que Lead Data Quality Analyst , vous êtes le garant de la fiabilité et de l'intégrité de nos actifs data. Votre rôle central consiste à définir, mesurer et mettre en œuvre les stratégies et processus assurant une haute qualité des données, indispensable à la prise de décision et au succès de nos initiatives métier. Vous pilotez l'ensemble du cycle de vie de la qualité des données : Gouvernance et Stratégie Data Quality : Définir et maintenir les règles de qualité des données (complétude, unicité, validité, cohérence et format). Établir les indicateurs clés de performance (KPI) de la qualité des données et s'assurer de leur suivi régulier. Analyse et Audit des Données : Analyser la qualité des données au sein de nos systèmes sources et cibles (Data Warehouse, Data Lake). Identifier les anomalies, les causes racines des problèmes de qualité (système, processus, ou saisie) et recommander des actions correctives. Implémentation Technique : Mettre en œuvre des contrôles de qualité automatisés directement dans les outils d'entrepôt de données (notamment Snowflake ). Développer des tableaux de bord de monitoring de la qualité pour visualiser les scores et les tendances (via Qlik ou d'autres outils de visualisation). Coordination et Amélioration Continue : Collaborer étroitement avec les Data Engineers, les Data Scientists et les équipes métier pour garantir la bonne application des règles de qualité. Gérer la priorisation des tickets et des actions d'amélioration de la qualité des données.
Offre d'emploi
DATA ENGINEER PYPARK / DATABRICKS / POWER BI / DATAIKU
Publiée le
Azure
Databricks
Dataiku
3 ans
40k-45k €
400-570 €
Paris, France
Bonjour, Pour le compte de mon client, nous recherchons un data engineer. L’équipe de BUILD (qui gère les données du socle relation client et du socle connaissance client. Cette équipe est en charge de mettre à disposition des données en fraicheur pour deux équipes business. Le Data Ingénieur sera intégré dans une équipe Marketing d’une dizaine de personnes. La ressource doit accompagner la direction dans la réalisation des outils BI et analyses ad hoc pour leur permettre la réalisation de leurs usages. La mission se décompose en deux volets : 1. DIR DATA : Apporter un appui à la capacité à faire de l’équipe BUILD du projet et d’épauler la capacité à faire des métiers sur des montées de versions de leurs produits data métiers. Contexte de migration des projets métiers data basé actuellement sur Synapse vers Unity Catalog (Databricks). 2. DIR MKT : L'objectif de la mission est de permettre à la direction de piloter les offres par la réalisation d'analyse et la construction de tableaux de bord. Les indicateurs mis en visibilité permettront à la direction de suivre l'adoption des offres et services et de prendre les décisions stratégiques. Actiivités du poste : Partie direction Data Participation active à l’appui des équipes métiers lors de la migration vers Unity Catalog / suppression de synapse. Appui aux métiers pour assurer la MCO de leurs produits data métiers Participation active à l’équipe de développement BUILD du projet et aux phases de recette et de validation sur les différentes livraisons des traitements de données en lien avec l’équipe de build projet. - Participation ponctuelle aux analyses d’écarts et à l’identification des causes racines sur des problèmes de qualité et incohérences de données remontées via les clients auprès de la Relation Client, l’équipe RGPD ou par d’autres canaux internes (ex : incohérences sur les dates de naissance, doublons de clients, de segments de voyages, problèmes de référentiels, etc.) - Participation ponctuelle à la construction et évolutions sur des tableaux de bord Power BI en lien avec les besoins de monitoring de la donnée des socles sous responsabilité de la direction Data . Partie Direction MKT : Construction et maintien de tableaux de bord : Élaboration et implémentation de modèles de données optimisés pour les tableaux de bord Construction du tableau de bord Validation de la conformité et de la fiabilité des données présentées dans les tableaux de bord Traitements de données Développement et maintien d’indicateurs Optimisation des performances des traitements de données Interne Automatisation de la chaine de traitements des données depuis le socle Data TGV-IC ou d'autres sources Supervision de la chaine de traitements Réalisation d’analyse Réalisation d'extractions et analyses data ad hoc pour répondre aux besoins spécifiques des métiers Actions de gouvernance de la donnée Catalogage de la donnée : Documentation des dictionnaires de données, du lineage et des produits data business Suivi de la qualité des données Mise en place d’un outil de supervision de la qualité des données Identification des anomalies et investigations
Offre d'emploi
Data Manager
Publiée le
Dataiku
Microsoft SQL Server
Sass
1 an
40k-45k €
330-540 €
Paris, France
Télétravail partiel
Contexte de la mission Cette mission s'inscrit dans le contexte actuel de l'augmentation de la surveillance réglementaire sur les activités de financement associées aux Private Equity (PE) et Private Crédit (PC). Au sein du département RISK, l'équipe Data Management a pour rôle d'accompagner les équipes RISK dans leurs activités quotidiennes en mettant en œuvre des solutions agiles et innovantes en termes de traitement, d'automatisation et de visualisation des données ; et contribue aux demandes réglementaires complexes à l'échelle du Groupe nécessitant une forte expertise technique et fonctionnelle des données. Sur le périmètre crédit, la production d'analyses de portefeuilles et d'exercices réglementaires s'effectue dans l'environnement UDS (Unified Data Set), une solution SAS pour la collecte et la préparation des données et SQL Server / Tableau Server pour la visualisation des données. Une migration de la plateforme de collecte et de préparation des données de SAS vers Dataïku est en cours de finalisation dans le cadre d'un projet Risk Data Services. La mise en service de la nouvelle plateforme est prévue début 2026. Sur cette nouvelle plateforme, l'UDS devra évoluer pour intégrer un nouveau besoin permettant à la banque de mieux monitorer ses risques face à des contreparties financées par des Private Equity ou des Private Credit. Cette mission consistera à implémenter une solution pour couvrir ce besoin au niveau de l'UDS, d'abord en mode tactique puis en mode cible. Dans le cadre de cette mission, de nouvelles données devront être collectées, contrôlées, agrégées et restituées dans des dashboards. Cette mission s'inscrit dans un projet plus global qui vise à faire évoluer l'ensemble du dispositif IT RISK/Finance pour couvrir ce besoin d'une manière globale.
Mission freelance
Machine Learning Engineer (Détection des fraudes)
Publiée le
Data science
Dataiku
Machine Learning
4 mois
580-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur bancaire Description 🏢 Le Contexte Pour le compte d’un grand groupe bancaire français , nous recherchons un expert en Data Science pour rejoindre une équipe pluridisciplinaire (Conformité, IT, Gestion de projet) en pleine transformation. Le groupe lance une refonte majeure de son dispositif de surveillance LCB-FT (Lutte Contre le Blanchiment et le Financement du Terrorisme). L’objectif est de passer d’une approche traditionnelle (moteur de règles) à une solution interne innovante intégrant le Machine Learning et l'IA . 🎯 Votre Mission Au cœur de la Direction de la Conformité, votre rôle principal est de réduire significativement le taux de faux positifs et d'améliorer la capacité de détection de nouveaux schémas de fraude, tout en garantissant une explicabilité totale vis-à-vis du régulateur. Vos responsabilités principales : Modélisation & Data Science : Élaborer de nouveaux modèles de scoring et de segmentation de la clientèle. Combiner des approches supervisées et non supervisées pour détecter les comportements suspects (patterns connus et atypiques). Réaliser le Feature Engineering : sélection et validation des variables pertinentes (historique bancaire, KYC, transactions). Optimisation & Performance : Réviser les seuils de déclenchement des alertes pour optimiser le travail des analystes. Assurer la performance des modèles aussi bien en traitement Batch qu'en Temps Réel. Gouvernance & Explicabilité (Critique) : Garantir que chaque modèle produit est "auditable" et explicable (transparence des décisions, justification des variables) pour répondre aux exigences réglementaires strictes. Gestion de Projet & Accompagnement : Accompagner les phases de cadrage, recette et industrialisation. Rédiger les livrables (cahiers des charges, expressions de besoins, documentation technique). 🛠 Environnement Technique Stack principale : Python, Dataiku. Données : Historique opérations, KYC, relations clients, volumétrie bancaire standard.
Offre d'emploi
Data Engineer
Publiée le
Dataiku
Microsoft Power BI
PySpark
1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Offre d'emploi
Business Analyst Data & IA
Publiée le
Business Analysis
Dataiku
IA
1 an
40k-45k €
400-620 €
Paris, France
Télétravail partiel
Contexte et enjeux Une organisation de solutions de crédit-bail se trouve à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre du projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation, plus particulièrement pour le projet de refonte d'une application de valorisation d'assets avancée. Responsabilités Analyse des besoins métiers, des données et des cas d'usage IA Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Comprendre les processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Évaluation et qualification des sources de données disponibles afin d'identifier les données pertinentes et fiables. Vérifier leur qualité, cohérence, disponibilité et adéquation avec les besoins métiers. Collaboration étroite avec le Data Office pour : Valider les jeux de données existants Identifier les manques Contribuer à la modélisation des données non encore prises en charge par les systèmes existants Assurer l'alignement avec les standards de gouvernance, traçabilité et qualité Définition et formalisation avec les Data Engineers et les MLOps des besoins fonctionnels en matière de données et d'algorithmes (features, KPIs, modèles IA, reporting), en veillant à leur faisabilité technique et leur pertinence métier. Spécification fonctionnelle et data design Rédaction de spécifications fonctionnelles détaillées, structurées autour de : User stories data Règles de gestion Dictionnaires de données Mappings sources-cibles Schémas conceptuels / logiques orientés data & IA Description des flux de données end-to-end : collecte, transformation, stockage, mise à disposition, consommation. Assurer une vision claire et documentée du cycle de vie de la donnée. Contribution au design des pipelines de données, en coordination avec les équipes techniques (Data Engineers, Data Scientists), pour assurer la faisabilité, la robustesse et la performance des solutions. Interface entre les équipes métier, Data Office et équipes techniques IA / Data / BI Intermédiaire entre le métier, le Data Office et les équipes IT / Data / IA, en garantissant : Une compréhension commune des exigences La conformité entre les besoins fonctionnels et les solutions techniques proposées La bonne disponibilité des jeux de données nécessaires au projet Accompagnement des utilisateurs métiers dans la compréhension et l'appropriation des données fiables et des solutions analytiques ou IA. Suivi de la mise en œuvre des solutions IA & Data Participation au suivi des développements (étapes clés, points d'avancement) avec un rôle d'assurance fonctionnelle. Validation fonctionnelle des livrables data et IA : Vérification de la qualité des données Contrôle de la complétude des jeux de données Revue des KPI, Dashboard PowerBI, notebooks Dataiku, features IA, etc. Recueil et intégration des retours métiers afin d'ajuster les modèles, indicateurs ou jeux de données. Documentation et gouvernance Production et mise à jour de la documentation fonctionnelle et data. Contribution active aux démarches de gouvernance de la donnée pilotées par le Data Office : qualité, conformité, traçabilité, sécurité.
Offre d'emploi
Delivery Manger
Publiée le
Dataiku
Gestion de projet
1 an
40k-45k €
250-700 €
Paris, France
Télétravail partiel
Contexte Le client est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Responsabilités Gestion de la livraison : Supervisation de l'ensemble du cycle de vie du projet, en garantissant la livraison des solutions dans les délais impartis, tout en respectant les contraintes budgétaires et les exigences de qualité. Coordonnation des équipes pluridisciplinaires (IT, métiers, partenaires externes) et participer à la synchronisation des différents projets du programme. Suivre l'avancement du projet et communiquer à la Direction de Programme les indicateurs de performance du projet. Gestion des risques et des dépendances : Identification, évaluation et suivi des risques liés à la livraison du projet en mettant en place des plans d'action correctifs pour minimiser leur impact. Suivre les adhérences entre les différents projets du programme en s'assurant que les interfaces et les intégrations soient optimisées et sans friction. Collaboration avec la Direction de Programme et les Parties Prenantes : Suivre une communication fluide et transparente avec les parties prenantes, notamment avec la Direction de Programme. Préparation et animer les comités de suivi et de pilotage du projet. Suivi de l'alignement des objectifs stratégiques avec les actions opérationnelles menées sur le terrain.
Mission freelance
Proxy Product Owner (PO) - Automatisation des Processus
Publiée le
6 mois
500 €
75001, Paris, Île-de-France
Dans le cadre de l'initiative Group Process Automation , nous recherchons un Proxy Product Owner (PO) - Automatisation des Processus pour renforcer notre équipe. Ce rôle sera responsable de la collaboration avec les équipes métiers à travers l'organisation afin d'identifier, évaluer, modéliser et optimiser les processus métiers candidats à l'automatisation via des agents IA et la plateforme Dataiku . Le Proxy PO contribuera à traduire les besoins métiers en exigences d'automatisation concrètes, à construire et prioriser le backlog d'automatisation, et à soutenir l'équipe de développement dans la livraison de workflows automatisés de haute qualité. Le rôle inclut également la participation à la création de business cases, à l'évaluation de la valeur et à la conduite du changement pour assurer l'adoption réussie des solutions automatisées. Objectifs et Livrables Responsabilités Clés 1. Identification et Évaluation des Processus Métiers Collaborer avec les équipes métiers pour comprendre leurs défis opérationnels, workflows et points de douleur. Animer des ateliers et des interviews pour capturer les processus existants (« as-is »). Identifier et qualifier les processus adaptés à l'automatisation (agents IA, schémas RPA, flux Dataiku ou automatisations hybrides). Évaluer la faisabilité de l'automatisation en fonction de la complexité, de la disponibilité des données, des coûts, du potentiel de valeur et des risques. 2. Modélisation des Processus en BPMN 2.0 Modéliser les processus actuels et cibles selon les standards BPMN 2.0. Identifier les inefficacités et opportunités d'amélioration avant automatisation. Produire une documentation claire et détaillée pour soutenir la conception et le développement. Collaborer avec les parties prenantes pour valider et affiner les schémas de processus. 3. Définition du Backlog & Rôle de Product Owner Transformer les besoins métiers et analyses de processus en epics, user stories et critères d'acceptation bien définis. Prioriser le backlog d'automatisation en fonction de la valeur métier, des estimations d'effort et des priorités stratégiques. Servir d'intermédiaire entre les parties prenantes métiers et l'équipe de développement Dataiku. Participer aux cérémonies Agile (raffinements, planification de sprint, démos, rétrospectives). 4. Business Case & Réalisation de la Valeur Aider les équipes métiers à définir les bénéfices financiers et non financiers des initiatives d'automatisation. Estimer les gains potentiels (temps, coûts, réduction des erreurs) et la valeur apportée. Suivre les KPI et indicateurs de succès après mise en œuvre. Contribuer à la gouvernance de la réalisation des bénéfices. 5. Collaboration avec l'Équipe de Développement Dataiku Travailler en étroite collaboration avec les développeurs Dataiku pour garantir la bonne compréhension et mise en œuvre des exigences. Participer aux discussions de conception concernant les agents IA, flux de données, connecteurs et logique d'orchestration. Valider les livrables pour assurer leur conformité avec la logique des processus et les attentes métiers. Fournir des retours et améliorations dans le cadre des cycles de livraison itératifs. 6. Conduite du Changement & Engagement des Parties Prenantes Aider les équipes métiers à se préparer à l'adoption des processus automatisés. Communiquer clairement les avancées, délais et attentes aux parties prenantes à tous les niveaux. Fournir des formations ou transferts de connaissances si nécessaire. Promouvoir la culture de l'automatisation et les bonnes pratiques dans l'organisation. Compétences et Qualifications Requises Compétences Techniques & Fonctionnelles Maîtrise des standards BPMN 2.0 et de la modélisation des processus métiers. Expérience en automatisation des processus (RPA, agents IA, workflows automatisés ou automatisation basée sur les données). Connaissance de Dataiku (fort atout). Bonne compréhension des méthodologies Agile/Scrum. Capacité à traduire les besoins métiers en exigences fonctionnelles et techniques. Expérience dans la création de business cases et l'évaluation ROI/valeur. Compréhension basique des API, pipelines de données ou orchestration de workflows. Compétences d'Analyse & Résolution de Problèmes Excellente capacité à analyser des processus métiers complexes. Approche orientée résolution, avec un esprit d'optimisation et de simplification. Capacité à challenger les pratiques existantes et proposer des améliorations. Compétences Interpersonnelles & Communication Excellentes compétences en communication écrite et orale, avec la capacité d'interagir avec des interlocuteurs techniques et non techniques. Solides compétences en animation d'ateliers, interviews et sessions de découverte de processus. Capacité à conduire des discussions, gérer les attentes et influencer les décisions. Expérience Professionnelle 8 à 10 ans d'expérience en gestion des processus, analyse métier, automatisation ou domaines similaires. Expérience préalable dans des initiatives RPA/IPA ou des centres d'excellence en automatisation (atout). Expérience dans des environnements transverses et internationaux.
Offre d'emploi
Data Engineer AWS / Spark / Scala /Python
Publiée le
Apache Spark
PySpark
Scala
1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Contrat de prestation ESN
- micro entreprise avant validation ARE
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Credit immobilier et transformation de SASU IS à EURL IS
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
13 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois