Trouvez votre prochaine offre d’emploi ou de mission Dataiku

Votre recherche renvoie 15 résultats.
Freelance

Mission freelance Expert Dataiku

Cherry Pick
Publiée le

12 mois
700 €
Paris, France
Missions: Expertise sur DATAIKU ou un outil de même type Développement autour de DATAIKU ou d’un outil de même type. Il doit être impérativement autonome sur l’outils pour développer des modules exemples dans cet environnement sur lesquels l’équipe en place pourra s’appuyer plus tard. Développement d’accès aux données et de requêtage sur gros volumes. Très bonnes connaissances des appels de type API Livrables: Développements Documentations techniques et spécificités sur les éléments mis en œuvre Stack technique: POC, DEV,IMOE,RMOA, KLIF et PRODUCTION Compétences: DATAIKU API Requêtes
Freelance

Mission freelance Data Scientist Python / Dataiku

Kleever
Publiée le

3 mois
400-600 €
Bordeaux, Nouvelle-Aquitaine
Contexte/ contenu de la mission : renfort de l’équipe Data science composée de 15 experts en Data Science & data ingénierie. Mission : Travaux sur la revue/maintenance des scores de solvabilité, des scores de détection de fraude et des scores de comportement (pour le Commerce ou le marketing type appétence produit, anti-churn) et modèles non supervisés pour accompagner les optimisations de stratégie de contact client. Machine learning, Mise en API, monitoring , optimisation, ... Durée de la mission : 3 mois renouvelables Date de démarrage : ASAP Télétravail : 2/3 jours possible Maitrise Python / Dataiku
Freelance

Mission freelance Consultant Big Data Python Spark Dataiku

FREELANCE VISION
Publiée le

12 mois
Paris, France
Dans le cadre des différents sujets que nous avons à adresser au niveau du projet BIG DATA, l’intervenant devra travailler sur : - Développement en data modélisation et data préparation - Expertise technique sur pile middlewares du Big Data (Distribution Cloudera) - Expertise sur DATAIKU - Support à la production Livrables / Résultats attendus - Développements data - Résolution de tickets d’incidents et de problèmes selon les processus internes - Documentations techniques et spécificités sur les éléments mis en oeurvre - Livraison de développement sur le git interne - Prise en charge des jira au sein du sprint planning 3 - ENVIRONNEMENTS TECHNIQUES Les environnements techniques relatifs au projet sont les suivants : - POC, DEV, IMOE, RMOA, KLIF et PRODUCTION
Freelance

Mission freelance DATA ENGINEER / ANALYST DATAIKU / TABLEAU

UCASE CONSULTING
Publiée le

36 mois
Paris, France
Bonjour, Pour le compte de notre client, nous recherchons un consultant Data engineer / analyst BDD / SQL / DATAIKU Prérequis : DATAIKU / SQL / Anglais pro + très très apprécié : Tableau Nous recherchons un Data Engineer / Analyst pour renforcer la Tribe Customer. L’ambition est d’accélérer la livraison d’un nouveau produit Data et de pouvoir arrêter les dataflows fonctionnant sur une technologie prévue à l’arrêt. Ce dataflow, initialement construit par le métier, produit des KPIs stratégiques pour l’entreprise et les objectifs de certains opérationnels en dépendent. Description de la mission : Nous cherchons un Data Engineer / Analyst avec une compétence forte en sql, applicable sur Dataiku. Afin d’accélérer l’arrêt d’une plateforme (Cloudera), Ce data Engineer / Analyst devra : reconstruire en sql (non-iso) un dataflow aujourd’hui sur Dataiku / Cloudera, vérifier les données et valider avec le métier qu’elle peut remplacer le processus actuel, Documenter la procédure et émettre une recommandation pour le Datamart qui sera livré en Q3. Date démarrage : ASAP Durée : Longue Site : Paris Télétravail : 4J/ Semaine CA vous tente ? Postulez !! A très vite ! TEAM UCASE
Freelance

Mission freelance Expert big data cloudera/dataiku H/F

LeHibou
Publiée le

12 mois
680 €
Paris, France
Notre client dans le secteur de la banque recherche un Expert Big Data - Dataiku / Cloudera H/F Descriptif de la mission : Dans le cadre de l’accostage des équipes build avec la tour applicative (run), nous recherchons un Ingénieur expérimenté capable d’intervenir sur deux projets à des phases différentes : Un projet Dataiku qui fait suite à la validation d’un POV mené l’année dernière afin de mener ce projet en production et d’accompagner avec le chef de projet dédié, les équipes pour monter la solution en respectant les enjeux des socles et des clusters. Un projet Cloudera, qui fait suite à la migration d’Hortonworks vers Cloudera. l’objectif est d’accompagner les métiers suite au déploiement de Cloudera, de gérer les déploiements, l’accompagnement durant les phases de migration et les incidents liés aux premiers déploiements. Nous recherchons donc un profil capable d’intervenir sur du build et sur du run, et de participer à l’acculturation des utilisateurs actuels et futurs. Compétences / Qualités indispensables : plateforme big data Dataiku Compétences / Qualités qui seraient un + : Cloudera
Freelance

Mission freelance Data Engineer H/F

CTG
Publiée le
Dataiku
Python
Scala

36 mois
Paris, France
En tant que Data Engineer, vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model. Les projets à adresser visent le développement et maintenance de modules de gestion des données de consommation (intégration, transformation et exposition), de contrats, et leur représentation à travers différentes interfaces. Vous interviendrez aussi bien sur de l’analyse de besoin, design, développement, support, maintenance corrective et évolutive. Vous travaillerez dans une équipe auto-organisée en mode agile avec un Product Owner et 3 BA (Business analystes). Les activités de cette équipe couvrent l’analyse, le développement, les tests, le déploiement et le support. Vos activités principales seront : La montée en compétence sur les process, produits et applications existantes La compréhension du business et la réalisation de développements en pair avec un responsable fonctionnel L’analyse et spécifications des besoins et algorithmes Implémenter les corrections et évolutions en couvrant tous les aspect conception, codage, sécurité, gestion des erreurs, évolutivité, scalabilité, revues de code, testing, intégration continue, ...- Fournir des services aux utilisateurs avec le plus haut niveau de satisfaction. Fournir des estimations de charge et délais Soutenir l’amélioration continue des services. Identifier les goulots d’étranglement et les bugs et définir des solutions à ces problèmes Rédiger et mettre à jour les documentations Proposer des solutions innovantes répondant aux problématiques fonctionnelles et techniques. Travailler en étroite collaboration avec les BA, les utilisateurs, architectes et autres équipes de développement. Fournir une communication efficace et opportune aux différentes équipes concernées
Freelance

Mission freelance Ingénieur IA

HN SERVICES
Publiée le
Dataiku
Hadoop

12 mois
600 €
Paris, France
Dans le cadre de nos travaux sur l’intelligence Artificielle, nous avons besoin d’un Expert DataScience et MLOPS (Machine Learning Ops). La prestation concerne l’industrialisation et le cycle de vie des modèles d’intelligence artificielle. Cette mise en production s’anticipe dès la phase de conception, et amène donc de nouveaux enjeux. Les missions qui lui seront confiées sont :  Industrialiser des modèles d’IA  Optimiser des programmes pour améliorer les performances, la vitesse et l’élasticité  Suggérer des applications de Machine Learning pertinentes  Mettre en production et déployer les modèles de Machine Learning  Gérer le cycle de vie des modèles de Machine Learning, les faire vivre dans le temps, le monitoring des performances  Détecter les dérives des modèles .
CDI

Offre d'emploi TECHNICAL LEAD- R-Shiny / Shell Unix

Digistrat consulting
Publiée le

Paris, France
La plate-forme pour produire la revue annuelle et on-going monitoring des modèles risques du groupe. A ce titre, le bénéficiaire souhaite bénéficier de l’expertise du prestataire en termes d’Urbanisme des systèmes d’information La prestation consiste à contribuer à/au(x) :  La gestion de l’architecture technique d’une application Data de backtesting de modèles de Risques en Dataiku & R/ R-Shiny  La définition des solutions techniques pour alimenter les données en entrée de l’application, contribuer a la gestion du compute des indicateurs (batch) et exposer les restitutions (web)  La définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement  La définition et mise en place des process CI/CD  La contribution des développements de l’entité de dev, troubleshooting, revue de la qualité du code, construction et ajustement des templates utilisés  La contribution de l’application, modularisation des composants, scalabilité et synchronisation des développements dans un contexte de collaboration métier/it La gestion de l’architecture technique d’une application Data de backtesting de modèles de Risques en Dataiku & R/ R-Shiny La définition des solutions techniques pour alimenter les données en entrée de l’application, contribuer a la gestion du compute des indicateurs (batch) et exposer les restitutions (web) La définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement La définition et mise en place des process CI/CD La contribution des développements de l’entité de dev, troubleshooting, revue de la qualité du code, construction et ajustement des templates utilisés La contribution de l’application, modularisation des composants, scalabilité et synchronisation des développements dans un contexte de collaboration métier/it Stack technique : Docker, Kubernetes, Dataiku, Git, Jenkins, PostgreSQL, Shell Unix, R, Shiny, Python Les livrables attendus sont :  Définition des solutions techniques pour alimenter les données en entrée de l’application, assurer le compte des indicateurs (batch) et exposer les restitutions (web)  Définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement  Définition et mise en place des process CI/CD Définition des solutions techniques pour alimenter les données en entrée de l’application, assurer le compte des indicateurs (batch) et exposer les restitutions (web) Définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement Définition et mise en place des process CI/CD Les expertises attendues pour réaliser cette prestation sont listées ci-après :  Compétences en développement (Shell unix, Perl, PHP, Python, git, github)
Freelance

Mission freelance TECHNICAL LEAD- R-Shiny / Shell Unix

Digistrat consulting
Publiée le

36 mois
Paris, France
La plate-forme pour produire la revue annuelle et on-going monitoring des modèles risques du groupe. A ce titre, le bénéficiaire souhaite bénéficier de l’expertise du prestataire en termes d’Urbanisme des systèmes d’information La prestation consiste à contribuer à/au(x) :  La gestion de l’architecture technique d’une application Data de backtesting de modèles de Risques en Dataiku & R/ R-Shiny  La définition des solutions techniques pour alimenter les données en entrée de l’application, contribuer a la gestion du compute des indicateurs (batch) et exposer les restitutions (web)  La définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement  La définition et mise en place des process CI/CD  La contribution des développements de l’entité de dev, troubleshooting, revue de la qualité du code, construction et ajustement des templates utilisés  La contribution de l’application, modularisation des composants, scalabilité et synchronisation des développements dans un contexte de collaboration métier/it La gestion de l’architecture technique d’une application Data de backtesting de modèles de Risques en Dataiku & R/ R-Shiny La définition des solutions techniques pour alimenter les données en entrée de l’application, contribuer a la gestion du compute des indicateurs (batch) et exposer les restitutions (web) La définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement La définition et mise en place des process CI/CD La contribution des développements de l’entité de dev, troubleshooting, revue de la qualité du code, construction et ajustement des templates utilisés La contribution de l’application, modularisation des composants, scalabilité et synchronisation des développements dans un contexte de collaboration métier/it Stack technique : Docker, Kubernetes, Dataiku, Git, Jenkins, PostgreSQL, Shell Unix, R, Shiny, Python Les livrables attendus sont :  Définition des solutions techniques pour alimenter les données en entrée de l’application, assurer le compte des indicateurs (batch) et exposer les restitutions (web)  Définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement  Définition et mise en place des process CI/CD Définition des solutions techniques pour alimenter les données en entrée de l’application, assurer le compte des indicateurs (batch) et exposer les restitutions (web) Définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement Définition et mise en place des process CI/CD Les expertises attendues pour réaliser cette prestation sont listées ci-après :  Compétences en développement (Shell unix, Perl, PHP, Python, git, github)
Freelance

Mission freelance Consultant Big Data

FREELANCE VISION
Publiée le

12 mois
Bordeaux, Nouvelle-Aquitaine
Dans le cadre des différents sujets que nous avons à adresser au niveau du projet BIG DATA, l’intervenant devra travailler sur : - Développement en data modélisation et data préparation - Expertise technique sur pile middlewares du Big Data (Distribution Cloudera) - Expertise sur DATAIKU - Support à la production Livrables / Résultats attendus - Développements data - Résolution de tickets d’incidents et de problèmes selon les processus internes - Documentations techniques et spécificités sur les éléments mis en oeurvre - Livraison de développement sur le git interne - Prise en charge des jira au sein du sprint planning 3 - ENVIRONNEMENTS TECHNIQUES Les environnements techniques relatifs au projet sont les suivants : - POC, DEV, IMOE, RMOA, KLIF et PRODUCTION
Freelance

Mission freelance INGENIEUR DE PRODUCTION ELK/MONGODB

PARTECK INGENIERIE
Publiée le

12 mois
Paris, France
assurer le niveau de support attendu au regard des enjeux des Services d’infrastructures et favoriser les nécessaires synergies des outils, des techniques et des méthodes de support, et participer à l’industrialisation. Administration d’un ordonnanceur (Autosys, VTOM, $U ) Des connaissances des environnements IT et en particulier des environnements DATA/Big DATA (Cloudera, Dataiku, Tableau ) sera un grand plus. Bonnes connaissances et familier de l’utilisation des outils standards de supervision et monitoring (Centreon, ELK, Dynatrace, Grafana) Avoir le sens du service et du travail en équipe pour collaborer avec les équipes des services d’infrastructures, les équipes Applicatives, nos interlocuteurs métier, Avoir une forte capacité de gestion des charges et des priorités, une capacité d’adaptation, un bon relationnel, un sens du service et de la pédagogie envers les utilisateurs Avoir des capacités à prendre des décisions, anticiper et impulser le changement Administration d’un ordonnanceur (Autosys, VTOM, ) - Systèmes d’exploitation Linux/ Microsoft ;- Scripting (Bash/Powershell/Python/java). PARIS
Freelance

Mission freelance Admininistrateur Big Data

SOFTEAM
Publiée le

12 mois
400-560 €
Bordeaux, Nouvelle-Aquitaine
Poste : Admininistrateur Big Data L’expert sera un élément essentiel de l’équipe constituée de 6 collaborateurs : Il assurera notamment : - Une contribution dans les choix d’architecture et des composants - La mise en œuvre selon les règles existantes - La remontée d’alertes le cas échéant (dysfonctionnement, retard, anomalies diverses) - La gestion des incidents et problèmes auprès des éditeurs de solutions - Le reporting des actions réalisées - L’identification des actions devant être menées - La constitution -puis le maintien à jour-: Des documents (méthodologie et bonnes pratiques, nomenclature) Des outils (référentiels) Compténces techniques : Hive HDFS Kafka Knox SolR Zeppelin Zookeeper Autres : Scripting Shell sous Linux Netbackup Splunk Kerberos Dataiku Construction d’environnement Cloudera Cloudera Manager Ambari
Freelance

Mission freelance Ingénieur de Production - Référent Autosys - Support

KatchMe Consulting
Publiée le

12 mois
Issy-les-Moulineaux, Île-de-France
Nous recherchons pour un client final 2 Ingénieurs de production N2, avec une bonne maitrise de l’ordonnanceur Autosys pour un projet de grande envergure. Vos mission : - Être le référent en Autosys - Participer au maintien en conditions opérationnelles : Responsable de la réalisation des plans de production (exécution des traitements) Responsable de la réalisation des sauvegardes des données Maitrise le fonctionnement de la solution dans sa partie technique - Rédiger ou contribuer à la rédaction des documentations d’exploitation - Apporter une assistance technique et un support aux Incidents Managers, - S’assurer que l’ensemble de la documentation permet l’exploitation de la solution - Gérer l’ordonnancement des traitements -Assurer le support applicatif de niveau 2 - Réaliser le diagnostic et assure la résolution des incidents de niveau 2 Le poste contient des astreintes Démarrage : ASAP (dès que possible) Durée : 12 mois (renouvelable) Lieu de la mission : Issy les Moulineaux Télétravail : 2 Jours/Semaine Développement : Scala, SBT Infrastructure : Docker, Kafka, VmWare, DC/OS, FreeIPA Applicatif : Akka, Kafka, Cats, API Rest, ElasticSearch, RocksDB, Spark, Mesos, Couchbase, Hadoop/HDFS, Hive, PostGreSQL Outils : GIT, Jenkins, Nexus, Promotheus, Grafana, Ansible DataViz : Kibana (ELK), Data Exploration : DataIku, Zeppelin Ordonnanceur : Autosys, Talend Open Studio, Control-M
Freelance

Mission freelance Ingénieur développeur Cloud full-stack Python Angular

CELAD
Publiée le

12 mois
370-430 €
Montpellier, Occitanie
Nous poursuivons notre développement dans le Sud-Est et recrutons un Ingénieur développeur Cloud fullstack Python / Angular pour l’un de nos clients sur Montpellier. Mission : Vous participerez à la conception, au développement et à la maintenance logicielle de plusieurs nouveaux composants, modules ou services qui permettent de traiter, visualiser, éditer et valider des données présentes sur le Data Lake. Vous serez également amené à analyser et fixer certains des problèmes rencontrés par les utilisateurs sur ce logiciel scientifique. Le développement se fera suivant un processus Agile (Scrum voire TDD), au sein d’une équipe multiculturelle, avec une attention particulière pour la qualité, l’ergonomie et les performances. Stack technique : Python (microservices), Angular, Typescript, Azure DevOps pipelines, Kubernetes, Docker, Dataiku, GCP, SQL, NLP, Visual Studio, Git, domaine des Data Sciences Profil : De préférence ingénieur de formation, vous justifiez d’au moins 4 ans d’expérience en développement sofware fullstack Python / Angular (voire à défaut React ou VueJs) et avez quelques connaissances Node Autres compétences attendues : Esprit scientifique Maîtrise des éléments d’un environnement de production logiciel : contrôle de source, build automatique, tests, intégration, performance, etc. Bon niveau d’anglais indispensable (à défaut d’être fluent, vous savez comprendre et vous faire comprendre in english ) Bon relationnel. Contrat proposé : CDI de préférence, mais contrats alternatifs envisageables.
Freelance

Mission freelance Data analyst(H/F)

LR TECHNOLOGIES GROUPE
Publiée le

12 mois
400-530 €
Paris, France
Au sein de l’équipe Connaissance client : Réalisation des études de connaissance client Recueillir les problématiques métiers et être capable de traduire leurs besoins de Connaissance Client Comprendre la structure de nos données afin de collecter celles qui sont pertinentes Exploiter la donnée et l’analyser pour expliquer les phénomènes marketing et le comportement des clients Synthétiser/vulgariser les résultats et y associer des recommandations opérationnelles Restituer oralement aux demandeurs Reporting Transmettre aux équipes techniques les expressions de besoins nécessaires à la production des reportings/dashboard Assurer la recette de ces reportings/dashboard Automatiser les demandes de datas récurrentes issues des métiers Démocratisation de la Data Diffuser régulièrement les études de Connaissance Client au groupe Accompagner les équipes opérationnelles pour leur permettre de gagner en autonomie vis-à-vis de l’exploitation de la donnée Gouvernance & Qualité de la donnée Prendre en compte les contraintes / anomalies dans les données exploitées, les suivre et être force de proposition pour les faire évoluer ou proposer de nouveaux agrégats (rédiger les expressions de besoin et recetter ces nouvelles données) Assurer le suivi des agrégats pour lesquels le pôle Connaissance Client est identifié comme responsable de source Maîtriser et respecter la réglementation RGPD Outil principal : Dataiku

Nouveauté ! Bénéficiez dès maintenant de plus de 350 deals dénichés pour vous (logiciels, outils et bien d'autres).