Trouvez votre prochaine offre d’emploi ou de mission Dataiku
Votre recherche renvoie 15 résultats.

Mission freelance Expert Dataiku
Cherry Pick
Publiée le
12 mois
700 €
Paris, France
Missions:
Expertise sur DATAIKU ou un outil de même type
Développement autour de DATAIKU ou d’un outil de même type.
Il doit être impérativement autonome sur l’outils pour développer des modules exemples dans cet environnement sur lesquels l’équipe en place pourra s’appuyer plus tard.
Développement d’accès aux données et de requêtage sur gros volumes.
Très bonnes connaissances des appels de type API
Livrables:
Développements
Documentations techniques et spécificités sur les éléments mis en œuvre
Stack technique:
POC, DEV,IMOE,RMOA, KLIF et PRODUCTION
Compétences:
DATAIKU
API
Requêtes
Mission freelance Data Scientist Python / Dataiku
Kleever
Publiée le
3 mois
400-600 €
Bordeaux, Nouvelle-Aquitaine
Contexte/ contenu de la mission : renfort de l’équipe Data science composée de 15 experts en Data Science & data ingénierie.
Mission :
Travaux sur la revue/maintenance des scores de solvabilité,
des scores de détection de fraude et des scores de comportement (pour le Commerce ou le marketing type appétence produit, anti-churn)
et modèles non supervisés pour accompagner les optimisations de stratégie de contact client.
Machine learning, Mise en API, monitoring , optimisation, ...
Durée de la mission : 3 mois renouvelables
Date de démarrage : ASAP
Télétravail : 2/3 jours possible
Maitrise Python / Dataiku

Mission freelance Consultant Big Data Python Spark Dataiku
FREELANCE VISION
Publiée le
12 mois
Paris, France
Dans le cadre des différents sujets que nous avons à adresser au niveau du projet BIG DATA, l’intervenant devra travailler sur :
- Développement en data modélisation et data préparation
- Expertise technique sur pile middlewares du Big Data (Distribution Cloudera)
- Expertise sur DATAIKU
- Support à la production
Livrables / Résultats attendus
- Développements data
- Résolution de tickets d’incidents et de problèmes selon les processus internes
- Documentations techniques et spécificités sur les éléments mis en oeurvre
- Livraison de développement sur le git interne
- Prise en charge des jira au sein du sprint planning
3 - ENVIRONNEMENTS TECHNIQUES
Les environnements techniques relatifs au projet sont les suivants :
- POC, DEV, IMOE, RMOA, KLIF et PRODUCTION

Mission freelance DATA ENGINEER / ANALYST DATAIKU / TABLEAU
UCASE CONSULTING
Publiée le
36 mois
Paris, France
Bonjour,
Pour le compte de notre client, nous recherchons un consultant Data engineer / analyst BDD / SQL / DATAIKU
Prérequis : DATAIKU / SQL / Anglais pro
+ très très apprécié : Tableau
Nous recherchons un Data Engineer / Analyst pour renforcer
la Tribe Customer.
L’ambition est d’accélérer la livraison d’un nouveau produit Data et de pouvoir arrêter les dataflows fonctionnant sur une technologie
prévue à l’arrêt.
Ce dataflow, initialement construit par le métier, produit des KPIs stratégiques
pour l’entreprise et les objectifs de certains opérationnels en dépendent.
Description de la mission :
Nous cherchons un Data Engineer / Analyst avec une compétence forte en sql, applicable sur Dataiku.
Afin d’accélérer l’arrêt d’une plateforme (Cloudera), Ce
data Engineer / Analyst devra : reconstruire en sql (non-iso) un dataflow aujourd’hui sur Dataiku / Cloudera,
vérifier les données et valider avec le métier qu’elle peut remplacer le processus actuel,
Documenter la procédure et émettre une recommandation pour le Datamart qui sera livré en Q3.
Date démarrage : ASAP
Durée : Longue
Site : Paris
Télétravail : 4J/ Semaine
CA vous tente ? Postulez !!
A très vite !
TEAM UCASE

Mission freelance Expert big data cloudera/dataiku H/F
LeHibou
Publiée le
12 mois
680 €
Paris, France
Notre client dans le secteur de la banque recherche un Expert Big Data - Dataiku / Cloudera H/F
Descriptif de la mission :
Dans le cadre de l’accostage des équipes build avec la tour applicative (run), nous recherchons un Ingénieur expérimenté capable d’intervenir sur deux projets à des phases différentes :
Un projet Dataiku qui fait suite à la validation d’un POV mené l’année dernière afin de mener ce projet en production et d’accompagner avec le chef de projet dédié, les équipes pour monter la solution en respectant les enjeux des socles et des clusters.
Un projet Cloudera, qui fait suite à la migration d’Hortonworks vers Cloudera. l’objectif est d’accompagner les métiers suite au déploiement de Cloudera, de gérer les déploiements, l’accompagnement durant les phases de migration et les incidents liés aux premiers déploiements.
Nous recherchons donc un profil capable d’intervenir sur du build et sur du run, et de participer à l’acculturation des utilisateurs actuels et futurs.
Compétences / Qualités indispensables :
plateforme big data
Dataiku
Compétences / Qualités qui seraient un + :
Cloudera

Mission freelance Data Engineer H/F
CTG
Publiée le
Dataiku
Python
Scala
36 mois
Paris, France
En tant que Data Engineer, vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model.
Les projets à adresser visent le développement et maintenance de modules de gestion des données de consommation (intégration, transformation et exposition), de contrats, et leur représentation à travers différentes interfaces.
Vous interviendrez aussi bien sur de l’analyse de besoin, design, développement, support, maintenance corrective et évolutive.
Vous travaillerez dans une équipe auto-organisée en mode agile avec un Product Owner et 3 BA (Business analystes). Les activités de cette équipe couvrent l’analyse, le développement, les tests, le déploiement et le support.
Vos activités principales seront :
La montée en compétence sur les process, produits et applications existantes
La compréhension du business et la réalisation de développements en pair avec un responsable fonctionnel
L’analyse et spécifications des besoins et algorithmes
Implémenter les corrections et évolutions en couvrant tous les aspect conception, codage, sécurité, gestion des erreurs, évolutivité, scalabilité, revues de code, testing, intégration continue, ...-
Fournir des services aux utilisateurs avec le plus haut niveau de satisfaction.
Fournir des estimations de charge et délais
Soutenir l’amélioration continue des services. Identifier les goulots d’étranglement et les bugs et définir des solutions à ces problèmes
Rédiger et mettre à jour les documentations
Proposer des solutions innovantes répondant aux problématiques fonctionnelles et techniques.
Travailler en étroite collaboration avec les BA, les utilisateurs, architectes et autres équipes de développement.
Fournir une communication efficace et opportune aux différentes équipes concernées
Mission freelance Ingénieur IA
HN SERVICES
Publiée le
Dataiku
Hadoop
12 mois
600 €
Paris, France
Dans le cadre de nos travaux sur l’intelligence Artificielle, nous avons besoin d’un Expert DataScience et MLOPS (Machine Learning Ops).
La prestation concerne l’industrialisation et le cycle de vie des modèles d’intelligence artificielle.
Cette mise en production s’anticipe dès la phase de conception, et amène donc de nouveaux enjeux.
Les missions qui lui seront confiées sont :
Industrialiser des modèles d’IA
Optimiser des programmes pour améliorer les performances, la vitesse et l’élasticité
Suggérer des applications de Machine Learning pertinentes
Mettre en production et déployer les modèles de Machine Learning
Gérer le cycle de vie des modèles de Machine Learning, les faire vivre dans le temps, le monitoring des performances
Détecter les dérives des modèles .

Offre d'emploi TECHNICAL LEAD- R-Shiny / Shell Unix
Digistrat consulting
Publiée le
Paris, France
La plate-forme pour produire la revue annuelle et on-going monitoring des modèles risques du groupe.
A ce titre, le bénéficiaire souhaite bénéficier de l’expertise du prestataire en termes d’Urbanisme des
systèmes d’information
La prestation consiste à contribuer à/au(x) :
La gestion de l’architecture technique d’une application Data de backtesting de modèles de Risques en
Dataiku & R/ R-Shiny
La définition des solutions techniques pour alimenter les données en entrée de l’application,
contribuer a la gestion du compute des indicateurs (batch) et exposer les restitutions (web)
La définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement
La définition et mise en place des process CI/CD
La contribution des développements de l’entité de dev, troubleshooting, revue de la qualité du code,
construction et ajustement des templates utilisés
La contribution de l’application, modularisation des composants, scalabilité et synchronisation des
développements dans un contexte de collaboration métier/it
La gestion de l’architecture technique d’une application Data de backtesting de modèles de Risques en
Dataiku & R/ R-Shiny
La définition des solutions techniques pour alimenter les données en entrée de l’application,
contribuer a la gestion du compute des indicateurs (batch) et exposer les restitutions (web)
La définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement
La définition et mise en place des process CI/CD
La contribution des développements de l’entité de dev, troubleshooting, revue de la qualité du code,
construction et ajustement des templates utilisés
La contribution de l’application, modularisation des composants, scalabilité et synchronisation des
développements dans un contexte de collaboration métier/it
Stack technique : Docker, Kubernetes, Dataiku, Git, Jenkins, PostgreSQL, Shell Unix, R, Shiny, Python
Les livrables attendus sont :
Définition des solutions techniques pour alimenter les données en entrée de l’application, assurer le
compte des indicateurs (batch) et exposer les restitutions (web)
Définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement
Définition et mise en place des process CI/CD
Définition des solutions techniques pour alimenter les données en entrée de l’application, assurer le
compte des indicateurs (batch) et exposer les restitutions (web)
Définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement
Définition et mise en place des process CI/CD
Les expertises attendues pour réaliser cette prestation sont listées ci-après :
Compétences en développement (Shell unix, Perl, PHP, Python, git, github)

Mission freelance TECHNICAL LEAD- R-Shiny / Shell Unix
Digistrat consulting
Publiée le
36 mois
Paris, France
La plate-forme pour produire la revue annuelle et on-going monitoring des modèles risques du groupe.
A ce titre, le bénéficiaire souhaite bénéficier de l’expertise du prestataire en termes d’Urbanisme des
systèmes d’information
La prestation consiste à contribuer à/au(x) :
La gestion de l’architecture technique d’une application Data de backtesting de modèles de Risques en
Dataiku & R/ R-Shiny
La définition des solutions techniques pour alimenter les données en entrée de l’application,
contribuer a la gestion du compute des indicateurs (batch) et exposer les restitutions (web)
La définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement
La définition et mise en place des process CI/CD
La contribution des développements de l’entité de dev, troubleshooting, revue de la qualité du code,
construction et ajustement des templates utilisés
La contribution de l’application, modularisation des composants, scalabilité et synchronisation des
développements dans un contexte de collaboration métier/it
La gestion de l’architecture technique d’une application Data de backtesting de modèles de Risques en
Dataiku & R/ R-Shiny
La définition des solutions techniques pour alimenter les données en entrée de l’application,
contribuer a la gestion du compute des indicateurs (batch) et exposer les restitutions (web)
La définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement
La définition et mise en place des process CI/CD
La contribution des développements de l’entité de dev, troubleshooting, revue de la qualité du code,
construction et ajustement des templates utilisés
La contribution de l’application, modularisation des composants, scalabilité et synchronisation des
développements dans un contexte de collaboration métier/it
Stack technique : Docker, Kubernetes, Dataiku, Git, Jenkins, PostgreSQL, Shell Unix, R, Shiny, Python
Les livrables attendus sont :
Définition des solutions techniques pour alimenter les données en entrée de l’application, assurer le
compte des indicateurs (batch) et exposer les restitutions (web)
Définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement
Définition et mise en place des process CI/CD
Définition des solutions techniques pour alimenter les données en entrée de l’application, assurer le
compte des indicateurs (batch) et exposer les restitutions (web)
Définition et anticipation des évolutions à mettre en place par rapport à la stratégie de déploiement
Définition et mise en place des process CI/CD
Les expertises attendues pour réaliser cette prestation sont listées ci-après :
Compétences en développement (Shell unix, Perl, PHP, Python, git, github)

Mission freelance Consultant Big Data
FREELANCE VISION
Publiée le
12 mois
Bordeaux, Nouvelle-Aquitaine
Dans le cadre des différents sujets que nous avons à adresser au niveau du projet BIG DATA, l’intervenant devra travailler sur :
- Développement en data modélisation et data préparation
- Expertise technique sur pile middlewares du Big Data (Distribution Cloudera)
- Expertise sur DATAIKU
- Support à la production
Livrables / Résultats attendus
- Développements data
- Résolution de tickets d’incidents et de problèmes selon les processus internes
- Documentations techniques et spécificités sur les éléments mis en oeurvre
- Livraison de développement sur le git interne
- Prise en charge des jira au sein du sprint planning
3 - ENVIRONNEMENTS TECHNIQUES
Les environnements techniques relatifs au projet sont les suivants :
- POC, DEV, IMOE, RMOA, KLIF et PRODUCTION
Mission freelance INGENIEUR DE PRODUCTION ELK/MONGODB
PARTECK INGENIERIE
Publiée le
12 mois
Paris, France
assurer le niveau de support attendu au regard des enjeux des Services d’infrastructures et favoriser les nécessaires synergies des outils, des techniques et des méthodes de support, et participer à l’industrialisation.
Administration d’un ordonnanceur (Autosys, VTOM, $U ) Des connaissances des environnements IT et en particulier des environnements DATA/Big DATA (Cloudera, Dataiku, Tableau ) sera un grand plus.
Bonnes connaissances et familier de l’utilisation des outils standards de supervision et monitoring (Centreon, ELK, Dynatrace, Grafana) Avoir le sens du service et du travail en équipe pour collaborer avec les équipes des services d’infrastructures, les équipes Applicatives, nos interlocuteurs métier, Avoir une forte capacité de gestion des charges et des priorités, une capacité d’adaptation, un bon relationnel, un sens du service et de la pédagogie envers les utilisateurs Avoir des capacités à prendre des décisions, anticiper et impulser le changement
Administration d’un ordonnanceur (Autosys, VTOM, ) - Systèmes d’exploitation Linux/ Microsoft ;- Scripting (Bash/Powershell/Python/java).
PARIS

Mission freelance Admininistrateur Big Data
SOFTEAM
Publiée le
12 mois
400-560 €
Bordeaux, Nouvelle-Aquitaine
Poste : Admininistrateur Big Data
L’expert sera un élément essentiel de l’équipe constituée de 6 collaborateurs :
Il assurera notamment :
- Une contribution dans les choix d’architecture et des composants
- La mise en œuvre selon les règles existantes
- La remontée d’alertes le cas échéant (dysfonctionnement, retard, anomalies diverses)
- La gestion des incidents et problèmes auprès des éditeurs de solutions
- Le reporting des actions réalisées
- L’identification des actions devant être menées
- La constitution -puis le maintien à jour-:
Des documents (méthodologie et bonnes pratiques, nomenclature)
Des outils (référentiels)
Compténces techniques :
Hive
HDFS
Kafka
Knox
SolR
Zeppelin
Zookeeper
Autres :
Scripting Shell sous Linux
Netbackup
Splunk
Kerberos
Dataiku
Construction d’environnement Cloudera
Cloudera Manager
Ambari

Mission freelance Ingénieur de Production - Référent Autosys - Support
KatchMe Consulting
Publiée le
12 mois
Issy-les-Moulineaux, Île-de-France
Nous recherchons pour un client final 2 Ingénieurs de production N2, avec une bonne maitrise de l’ordonnanceur Autosys pour un projet de grande envergure.
Vos mission :
- Être le référent en Autosys
- Participer au maintien en conditions opérationnelles :
Responsable de la réalisation des plans de production (exécution des traitements)
Responsable de la réalisation des sauvegardes des données
Maitrise le fonctionnement de la solution dans sa partie technique
- Rédiger ou contribuer à la rédaction des documentations d’exploitation
- Apporter une assistance technique et un support aux Incidents Managers,
- S’assurer que l’ensemble de la documentation permet l’exploitation de la solution
- Gérer l’ordonnancement des traitements
-Assurer le support applicatif de niveau 2
- Réaliser le diagnostic et assure la résolution des incidents de niveau 2
Le poste contient des astreintes
Démarrage : ASAP (dès que possible)
Durée : 12 mois (renouvelable)
Lieu de la mission : Issy les Moulineaux
Télétravail : 2 Jours/Semaine
Développement : Scala, SBT
Infrastructure : Docker, Kafka, VmWare, DC/OS, FreeIPA
Applicatif : Akka, Kafka, Cats, API Rest, ElasticSearch, RocksDB, Spark, Mesos, Couchbase, Hadoop/HDFS, Hive, PostGreSQL
Outils : GIT, Jenkins, Nexus, Promotheus, Grafana, Ansible DataViz : Kibana (ELK),
Data Exploration : DataIku, Zeppelin
Ordonnanceur : Autosys, Talend Open Studio, Control-M

Mission freelance Ingénieur développeur Cloud full-stack Python Angular
CELAD
Publiée le
12 mois
370-430 €
Montpellier, Occitanie
Nous poursuivons notre développement dans le Sud-Est et recrutons un Ingénieur développeur Cloud fullstack Python / Angular pour l’un de nos clients sur Montpellier.
Mission :
Vous participerez à la conception, au développement et à la maintenance logicielle de plusieurs nouveaux composants, modules ou services qui permettent de traiter, visualiser, éditer et valider des données présentes sur le Data Lake.
Vous serez également amené à analyser et fixer certains des problèmes rencontrés par les utilisateurs sur ce logiciel scientifique.
Le développement se fera suivant un processus Agile (Scrum voire TDD), au sein d’une équipe multiculturelle, avec une attention particulière pour la qualité, l’ergonomie et les performances.
Stack technique : Python (microservices), Angular, Typescript, Azure DevOps pipelines, Kubernetes, Docker, Dataiku, GCP, SQL, NLP, Visual Studio, Git, domaine des Data Sciences
Profil :
De préférence ingénieur de formation, vous justifiez d’au moins 4 ans d’expérience en développement sofware fullstack Python / Angular (voire à défaut React ou VueJs) et avez quelques connaissances Node
Autres compétences attendues :
Esprit scientifique
Maîtrise des éléments d’un environnement de production logiciel : contrôle de source, build automatique, tests, intégration, performance, etc.
Bon niveau d’anglais indispensable (à défaut d’être fluent, vous savez comprendre et vous faire comprendre in english )
Bon relationnel.
Contrat proposé : CDI de préférence, mais contrats alternatifs envisageables.

Mission freelance Data analyst(H/F)
LR TECHNOLOGIES GROUPE
Publiée le
12 mois
400-530 €
Paris, France
Au sein de l’équipe Connaissance client :
Réalisation des études de connaissance client
Recueillir les problématiques métiers et être capable de traduire leurs besoins de Connaissance Client
Comprendre la structure de nos données afin de collecter celles qui sont pertinentes
Exploiter la donnée et l’analyser pour expliquer les phénomènes marketing et le comportement des clients
Synthétiser/vulgariser les résultats et y associer des recommandations opérationnelles
Restituer oralement aux demandeurs
Reporting
Transmettre aux équipes techniques les expressions de besoins nécessaires à la production des reportings/dashboard
Assurer la recette de ces reportings/dashboard
Automatiser les demandes de datas récurrentes issues des métiers
Démocratisation de la Data
Diffuser régulièrement les études de Connaissance Client au groupe
Accompagner les équipes opérationnelles pour leur permettre de gagner en autonomie vis-à-vis de l’exploitation de la donnée
Gouvernance & Qualité de la donnée
Prendre en compte les contraintes / anomalies dans les données exploitées, les suivre et être force de proposition pour les faire évoluer ou proposer de nouveaux agrégats (rédiger les expressions de besoin et recetter ces nouvelles données)
Assurer le suivi des agrégats pour lesquels le pôle Connaissance Client est identifié comme responsable de source
Maîtriser et respecter la réglementation RGPD
Outil principal : Dataiku
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes
Paris
Marseille
Lyon
Toulouse
Nice
Nantes
Montpellier
Strasbourg
Bordeaux
Lille
Rennes
Reims
Saint-Étienne
Le Havre
Toulon
Grenoble
Dijon
Angers
Nîmes
Villeurbanne
Saint-Denis
Le Mans
Aix-en-Provence
Clermont-Ferrand
Brest
Tours
Amiens
Limoges
Annecy
Perpignan
Boulogne-Billancourt
Besançon
Metz
Orléans
Rouen
Argenteuil
Mulhouse
Montreuil
Caen
Nancy
Saint-Paul
Tourcoing
Roubaix
Nanterre
Avignon
Vitry-sur-Seine
Poitiers
Créteil
Dunkerque
Versailles
Asnières-sur-Seine
Aubervilliers
Colombes