Trouvez votre prochaine offre d’emploi ou de mission Dataiku
Votre recherche renvoie 17 résultats.
Astuce
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance Chef de projet Dataiku
INFOTEL CONSEIL
Publiée le
1 an
600-700 €
Paris, France
Nous recherchons un consultant chef de projet expert Dataiku :
Vos missions au sein de l’équipe DATA SCIENCE/IA :
En tant que chef de projet Dataiku, vous serez responsable du bon fonctionnement de la plateforme Dataiku et de son adoption au sein de notre organisation : cela implique de définir et assurer la roadmap du projet avec les grands jalons, de coordoner les parties prenantes pour la phase de déploiement et l’anination de la communauté d’utilisateurs (définition des bonnes pratique / gouvernance).
Votre expertise en data science et votre maîtrise de Dataiku et SS seront essentielles pour mener à bien cette mission.
Compétences et qualités attendues :
Diplômé en informatique, en science des données ou en ingénierie, -vous justifiez d’une expérience de minimum 3 ans dans la gestion de projet data science et plateforme data.
Compétences Techniques :
- Gestion de projet transverse
- Expert Dataiku
- Expérience de migration SAS vers Dataiku
- Compétences en bases de données (Snowflake), SQL, Python, et autres outils de data science
- Connaissance de l’outil PowerBI
- Travail dans un environnement cloud AWS
- Compréhension des problématiques MLOps
Compétences Interpersonnelles :
- Excellentes capacités de communication (en français et en anglais)
- Aptitude à gérer des projets complexes et à collaborer avec diverses équipes (tech + business)
- Autonomie et rigueur

Mission freelance Expert Dataiku H/F
BI NEWVISION
Publiée le
1 an
500-600 €
Paris, France
Garantir des services opérationnels d’excellence : sécurité des SI et maîtrise des risques opérationnels,
qualité de la production informatique et pérennisation du SI.
Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et
digitale de demain .
Améliorer son efficacité opérationnelle, en réponse aux enjeux d’agilité et de time to market, et
optimiser les coûts informatiques.
Le client souhaite bénéficier d’une expertise en développement sur l’écosystème Dataiku dans
un contexte d’industrialisation de workflow dans un environnement spark et Cloudera.
Dans ce cadre la prestation consiste à contribuer à/au(x) :
- développements d’usages Dataiku :
conception technique des développements
supervision des traitements en place
support à des utilisateurs
cérémonies agile (méthode Scrum)
Expertises :
Spark
Python / PySpark
Scripting Shell
Environnement Cloudera
Les livrables attendus sont les suivants :
- Validation en fin de sprint des US développées dans le cadre de la mise en place des démos avec le métier
- documentation au travers de l’outillage (méthodologie scrum, outillage devops)
Les expertises attendues pour réaliser cette prestation sont listées ci-après :
Compétences en développement (Shell unix, Perl, PHP, Python, git, github)
Hadoop (Big Data)
Python
Spark

Mission freelance Expert Dataiku H/F
BI NEWVISION
Publiée le
1 an
500-580 €
Paris, France
Garantir des services opérationnels d’excellence : sécurité des SI et maîtrise des risques opérationnels,
qualité de la production informatique et pérennisation du SI.
Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et
digitale de demain .
Améliorer son efficacité opérationnelle, en réponse aux enjeux d’agilité et de time to Market, et
optimiser les coûts informatiques.
Le client souhaite bénéficier d’une expertise en développement sur l’écosystème Dataiku dans
un contexte d’industrialisation de workflow dans un environnement Spark et Cloudera.
Dans ce cadre la prestation consiste à contribuer à/au(x) :
- développements d’usages Dataiku :
conception technique des développements
supervision des traitements en place
support à des utilisateurs
cérémonies agile (méthode Scrum)
Expertises :
Spark
Python / PySpark
Scripting Shell
Environnement Cloudera
Les livrables attendus sont les suivants :
- Validation en fin de sprint des US développées dans le cadre de la mise en place des démos avec le métier
- documentation au travers de l’outillage (méthodologie Scrum, outillage DevOps)
Les expertises attendues pour réaliser cette prestation sont listées ci-après :
Compétences en développement (Shell Unix, Perl, PHP, Python, git, Github)
Hadoop (Big Data)
Python
Spark

Offre d'emploi Chef de Projet Expert Dataiku
Altelios Technology
Publiée le
40k-50k €
Puteaux, Île-de-France
Afin de renforcer nos équipes, nous recrutons un chef de projet Data Paltform Dataiku.
Vos missions au sein de l’équipe DATA SCIENCE/IA :
En tant que chef de projet Dataiku, vous serez responsable du bon fonctionnement de la plateforme Dataiku et de son adoption au sein de l’organisation de notre client :
- Définir et assurer la roadmap du projet avec les grands jalons,
- Coordonner les parties prenantes pour la phase de déploiement
- Animer la communauté d’utilisateurs (définition des bonnes pratiques / gouvernance)
Votre expertise en data science et votre maîtrise de Dataiku et SS seront essentielles pour mener à bien cette mission.

Mission freelance Data engineer Expert dataiku python AWS
Kaïbee
Publiée le
1 an
400-580 €
Paris, France
PAS DE SOUS-TRAITANCE // MERCI
Pour une mission longue durée, nous recherchons un Data Engineer avec des compétences sur la stack suivante: SPARK / DATAIKU / PYTHON / AWS
Responsabilités :
Concevoir, développer et entretenir des pipelines de données robustes et évolutifs utilisant des technologies telles que Spark, Python, et Dataiku pour traiter des volumes massifs de données.
Collaborer avec les équipes de Data Science et d’analyse pour comprendre les besoins en données et concevoir des solutions adaptées.
Optimiser les performances des infrastructures de données et des outils, en mettant l’accent sur l’efficacité, la scalabilité et la fiabilité.
Développer et maintenir des solutions de data warehousing sur AWS, en utilisant des services tels que S3, Redshift, ou Glue.
Veiller à la qualité des données, à leur intégrité et à leur sécurité tout au long du processus.
Compétences:
Expérience significative dans le développement de pipelines de données avec Spark, Python et des outils d’intégration comme Dataiku.
Maîtrise des services AWS pour la gestion et le traitement de données à grande échelle.
Solides compétences en modélisation de données, en architecture de bases de données et en optimisation des requêtes.
Compréhension des bonnes pratiques de sécurité des données et de conformité.
Capacité à travailler efficacement en équipe et à communiquer de manière claire et précise.

Mission freelance Mission Dataiku - Secteur de l’énergie
LINCOLN
Publiée le
6 mois
Ville de Bruxelles, Bruxelles-Capitale, Belgique
- Admin Dataiku
- Très bonne expertise sur Dataiku (min 5 ans d’exp)
- Bonne capacité de vulgarisation
- Véhiculer la bonne pratique de dataiku à l’ensemble des équipes
Démarrage à Janvier sur Bruxelles avec 2-3 jours de TT
Expérience forte sur Dataiku
Environnement AWS
Environnement databricks

Mission freelance Data Quality Analyst (H/F) - Tableau / Dataiku
Accelite
Publiée le
Agile Scrum
Analyse
Big Data
1 an
400-500 €
Paris, France
En tant que Data Quality Analyst (H/F), vous intervenez au sein d’un grand compte bancaire pour assurer le développement et la mise en œuvre des indicateurs et dashboards sur la qualité des données au sein de la production informatique mutualisée (gestions des données de l’IT), dans un contexte technique complexe, et en méthode agile. Vous assurez le développement des méthodes de contrôle qualité des données avec des dashboards / KPI permettant de piloter les remédiations.
Les missions sont :
Maitrise Data Quality Management : identification / formalisation des exigences de qualité, mise en place des contrôles et des modalités de suivi de la qualité des données nécessaire.
Maitrise Data preparation : développement de flow de préparation, traitement des données afin d’extraire les données essentielles et optimiser les performances dans la data visualisation.
Maitrise Data vizualisation : Le développement de dashboards mettant en évidence l’état de santé des bases de données sur différents axes (inventaire, état, résilience, backup, obsolescence.
Meta Data Management : analyse fine et compréhension des data sources et données nécessaire à collecter, traitement pour génération des indicateurs et tableaux de bord.
Infrastructures IT : connaissance générale sur les différentes solutions de production informatiques et leurs interactions (serveurs, réseaux, télécom, stockage, filtrage, répartition de charge, mainframe, virtualisation, docker, ITIL, ITSM, sécurité informatique, middleware, etc).
Compétences recherchées :
-Maîtrise Tableau / PowerBI (optionnel)
-Maîtrise Dataiku
-Maitrise Python
-Maîtrise langage SQL (sur PostgreSQL principalement / Oracle / MSSQL)
-Aisance consommation de données sur des systèmes distribués (Kafka, ELK, S3 storage)
-Connaissance en méta data management, type outil Talend Data Catalogue
-Aisance sur les outils agile scrum : Jira / Confluence
-Maitrise de l’anglais

Offre d'emploi Chef de Projet Data - Dataiku (5 ans minimum)
VIVERIS
Publiée le
Puteaux, Île-de-France
Le contexte :
Le groupe a fait le choix de Dataiku comme citizen data platform avec l’ambition sur l’année 2024 de déployer la solution dans l’éco-système data (stack AWS/Snowflake), d’onbaorder près de 70 utilisateurs dès la fin de l’année 1 et de réussir la phase de migration des traitements SAS historique.
Description du poste :
Vos missions au sein de l’équipe DATA SCIENCE/IA :
En tant que chef de projet Dataiku, vous serez responsable du bon fonctionnement de la plateforme Dataiku et de son adoption au sein de notre organisation : cela implique de définir et assurer la roadmap du projet avec les grands jalons, de coordoner les parties prenantes pour la phase de déploiement et l’anination de la communauté d’utilisateurs (définition des bonnes pratique / gouvernance).
Votre expertise en data science et votre maîtrise de Dataiku et SS seront essentielles pour mener à bien cette mission.
Compétences et qualités attendues :
Diplômé en informatique, en science des données ou en ingénierie, vous justifiez d’une expérience de minimum 3 ans dans la gestion de projet data science et plateforme data.
Compétences Techniques :
- Gestion de projet transverse
- Expert Dataiku
- Expérience de migration SAS vers Dataiku
- Compétences en bases de données (Snowflake), SQL, Python, et autres outils de data science
- Connaissance de l’outil PowerBI
- Travail dans un environnement cloud AWS
- Compréhension des problématiques MLOps
Compétences Interpersonnelles :
- Excellentes capacités de communication (en français et en anglais)
- Aptitude à gérer des projets complexes et à collaborer avec diverses équipes (tech + business)
- Autonomie et rigueur

Mission freelance Expert Dataiku (Python) PARIS
LFZ partners
Publiée le
1 an
520-640 €
Paris, France
Pour une première mission de 1 an, nous recherchons un(e) expert ( e) dataiku avec une bonne connaissance Python
Il s’agit d’un poste en CDI temps plein avec
Bonus de performance
Bonus de publication
Autres bonus et avantages (Mutuelle et prévoyance, tickets repas)
Date de début de la prestation décembre 2023 / janvier 2024
Poste ouvert aux indépendants (tarif à discuter)
Vous participez depuis au moins 3 ans à des projets Dataiku
Vous souhaitez évoluer en tant que Référent Dataiku
Vous aimez animer des ateliers Dataiku et former vos collègues
Vous avez une expertise technique sur DSS, Python, R, PySpark, Big Data , architecture distribuée
Idéalement vous possédez des certifications sur DataIku
Vous interviendrez sur les sujets suivants :
Rédaction des spécifications fonctionnelles et techniques
Contribution à la conception, au développement de flux d’alimentation
Accompagnement de nos clients sur l’appropriation de nos solutions
Conception et développement des jobs avec Data Intégration et Big Data
Intégration de DATAIKU, de flux DSS
Les skills suivants sont un avantage
Des connaissances sur les outils cloud tel que GCP, AWS ou encore Azure et petit plus une maitrise des outils Spark et Scala.
Une connaissance de : Docker, ELK, Kubernetes, Cassandra, Kafka, sont un plus, de même que des fondamentaux DevOps (CI / CD).
Mission freelance Expert Dataiku H/F
EXteam
Publiée le
3 ans
Hauts-de-Seine, France
Vous participez depuis au moins 3 ans à des projets Dataiku;
Vous souhaitez évoluer en tant que Référent Dataiku;
Vous aimez animer des ateliers Dataiku
Vous avez une expertise technique sur DSS, Python, R, PySpark, Big Data , architecture distribuée ;
Idéalement vous possédez des certifications sur DataIku
Vos missions :
vous intègrerez une équipe de Data Specialists (Data Engineer, Big Data, Data Scientists, Data Analytics, DevOps, CloudOps, Data Architecte ) dans la mise en œuvre d’une stratégie data cloud globale.
Vous interviendrez sur les sujets suivants :
Rédaction des spécifications fonctionnelles et techniques ;
Contribution à la conception, au développement de flux d’alimentation ;
Accompagnement de nos clients sur l’appropriation de nos solutions ;
Intervention sur des sujets d’avant-vente, de conseil et d’audit Dataiku;
Conception et développement des jobs avec Data Intégration et Big Data
Intégration de DATAIKU, de flux DSS ;

Mission freelance Spécialiste Dataiku sur Tours
UMANTRUST
Publiée le
6 mois
Tours, Centre-Val de Loire
Umantrust recherche pour un de ses clients un spécialiste Dataiku sur tours
Compétences Requises :
Excellente maîtrise de la plateforme Dataiku, y compris la création de workflows, la gestion des données, et l’utilisation de fonctionnalités avancées.
Solides compétences en programmation (Python, R) et en manipulation de données.
Compréhension approfondie des concepts de machine learning et de data science.
Capacité démontrée à résoudre des problèmes complexes et à optimiser des processus.
Excellentes compétences en communication pour interagir efficacement avec des équipes multidisciplinaires.

Offre d'emploi Data Quality Analyst (H/F)
Accelite
Publiée le
Agile Scrum
Analyse
Base de données
40k-50k €
Paris, France
En tant que Data Quality Analyst (H/F), vous intervenez au sein d’un grand compte bancaire pour assurer le développement et la mise en œuvre des indicateurs et dashboards sur la qualité des données au sein de la production informatique mutualisée (gestions des données de l’IT), dans un contexte technique complexe, et en méthode agile. Vous assurez le développement des méthodes de contrôle qualité des données avec des dashboards / KPI permettant de piloter les remédiations.
Les missions sont :
Maitrise Data Quality Management : identification / formalisation des exigences de qualité, mise en place des contrôles et des modalités de suivi de la qualité des données nécessaire.
Maitrise Data preparation : développement de flow de préparation, traitement des données afin d’extraire les données essentielles et optimiser les performances dans la data visualisation.
Maitrise Data vizualisation : Le développement de dashboards mettant en évidence l’état de santé des bases de données sur différents axes (inventaire, état, résilience, backup, obsolescence.
Meta Data Management : analyse fine et compréhension des data sources et données nécessaire à collecter, traitement pour génération des indicateurs et tableaux de bord.
Infrastructures IT : connaissance générale sur les différentes solutions de production informatiques et leurs interactions (serveurs, réseaux, télécom, stockage, filtrage, répartition de charge, mainframe, virtualisation, docker, ITIL, ITSM, sécurité informatique, middleware, etc).
Compétences recherchées :
-Maîtrise Tableau / PowerBI (optionnel)
-Maîtrise Dataiku
-Maitrise Python
-Maîtrise langage SQL (sur PostgreSQL principalement / Oracle / MSSQL)
-Aisance consommation de données sur des systèmes distribués (Kafka, ELK, S3 storage)
-Connaissance en méta data management, type outil Talend Data Catalogue
-Aisance sur les outils agile scrum : Jira / Confluence
-Maitrise de l’anglais
Mission freelance Architect solution Data
TECH INFOS
Publiée le
Apache Spark
API
API REST
2 ans
450-600 €
Paris, France
La prestation consiste à assister le pôle Architecture Solutions Data dans les missions suivantes :
Accompagnement et suivi des projets à enjeux data dans l’élaboration et les phases
de réalisation des architectures applicatives ;
Prendre en compte les contraintes cybersécurité et de conformité réglementaire
(RGPD) dans la conception des architectures ;
Elaboration de l’architecture data autour des solutions Data au catalogue
Décrire les étapes de mise en œuvre de la cible d’architecture data en cohérence avec
les systèmes BI actuels et les travaux du domaine data ;
Contribuer au plan de transformation sur la gouvernance de la donnée ;
Accompagnement et suivi des équipes projets dans les phases de réalisation ;
Contribution activité stratégie SI ;
Participation aux revues d’architecture des projets BI Management & Data Analytics ;
Maintient et évolution du cadre de cohérence technique Data & BI Data & Master
Data Management/Référentiel (en collaboration avec les experts et architecte
technique) : principes d’architecture, patterns, normes, bonnes pratiques ;
Contribuer à la communauté data de la DSI.

Mission freelance Data Engineer H/F
CTG
Publiée le
Dataiku
Python
Scala
3 ans
Paris, France
En tant que Data Engineer, vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model.
Les projets à adresser visent le développement et maintenance de modules de gestion des données de consommation (intégration, transformation et exposition), de contrats, et leur représentation à travers différentes interfaces.
Vous interviendrez aussi bien sur de l’analyse de besoin, design, développement, support, maintenance corrective et évolutive.
Vous travaillerez dans une équipe auto-organisée en mode agile avec un Product Owner et 3 BA (Business analystes). Les activités de cette équipe couvrent l’analyse, le développement, les tests, le déploiement et le support.
Vos activités principales seront :
La montée en compétence sur les process, produits et applications existantes
La compréhension du business et la réalisation de développements en pair avec un responsable fonctionnel
L’analyse et spécifications des besoins et algorithmes
Implémenter les corrections et évolutions en couvrant tous les aspect conception, codage, sécurité, gestion des erreurs, évolutivité, scalabilité, revues de code, testing, intégration continue, ...-
Fournir des services aux utilisateurs avec le plus haut niveau de satisfaction.
Fournir des estimations de charge et délais
Soutenir l’amélioration continue des services. Identifier les goulots d’étranglement et les bugs et définir des solutions à ces problèmes
Rédiger et mettre à jour les documentations
Proposer des solutions innovantes répondant aux problématiques fonctionnelles et techniques.
Travailler en étroite collaboration avec les BA, les utilisateurs, architectes et autres équipes de développement.
Fournir une communication efficace et opportune aux différentes équipes concernées

Mission freelance Data Engineer PYSPARK H/F
Proxiad
Publiée le
Hadoop
HDFS (Hadoop Distributed File System)
PySpark
3 ans
Val-de-Marne, France
Le Bénéficiaire souhaite bénéficier d’une expertise en développement sur l’ecosystème Dataiku dans un contexte d’industiralisation de workflow dans un environement spark et Cloudera.
A ce titre, le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) :
- développements d’usages Dataiku :
conception technique des développements
supervision des traitements en place
support à des utilisateurs
cérémonies agile (méthode Scrum) Expertises :
Spark
Python / PySpark
scripting shell
Environnement Cloudera
Les livrables attendus sont les suivants :
- Validation en fin de sprint des US développées dans le cadre de la mise en place des démos avec le métier
- documentation au travers de l’outillage (méthodologie scrum, outillage devops)
Les expertises attendues pour réaliser cette prestation sont listées ci-après :
Compétences en développement (Shell unix, Perl, PHP, Python, git, github)
Hadoop (Big Data)
Python
Spark

Offre d'emploi DATA Engineer
Management Square
Publiée le
55k-65k €
Île-de-France, France
Les activités qui vous seront confiées sont :
- Mise en place de la collecte et la mise à disposition des données
- Industrialisation et mettre en production des traitements sur les données
- Développements d’usages Dataiku
- Conception technique des développements
- Supervision des traitements en place
- Support à des utilisateurs
- Cérémonies agile (méthode Scrum)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes
Paris
Marseille
Lyon
Toulouse
Nice
Nantes
Montpellier
Strasbourg
Bordeaux
Lille
Rennes
Reims
Saint-Étienne
Le Havre
Toulon
Grenoble
Dijon
Angers
Nîmes
Villeurbanne
Saint-Denis
Le Mans
Aix-en-Provence
Clermont-Ferrand
Brest
Tours
Amiens
Limoges
Annecy
Perpignan
Boulogne-Billancourt
Besançon
Metz
Orléans
Rouen
Argenteuil
Mulhouse
Montreuil
Caen
Nancy
Saint-Paul
Tourcoing
Roubaix
Nanterre
Avignon
Vitry-sur-Seine
Poitiers
Créteil
Dunkerque
Versailles
Asnières-sur-Seine
Aubervilliers
Colombes

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !