Trouvez votre prochaine offre d’emploi ou de mission Dataiku

Votre recherche renvoie 17 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Freelance

Mission freelance Chef de projet Dataiku

INFOTEL CONSEIL
Publiée le

1 an
600-700 €
Paris, France
Nous recherchons un consultant chef de projet expert Dataiku : Vos missions au sein de l’équipe DATA SCIENCE/IA : En tant que chef de projet Dataiku, vous serez responsable du bon fonctionnement de la plateforme Dataiku et de son adoption au sein de notre organisation : cela implique de définir et assurer la roadmap du projet avec les grands jalons, de coordoner les parties prenantes pour la phase de déploiement et l’anination de la communauté d’utilisateurs (définition des bonnes pratique / gouvernance). Votre expertise en data science et votre maîtrise de Dataiku et SS seront essentielles pour mener à bien cette mission. Compétences et qualités attendues : Diplômé en informatique, en science des données ou en ingénierie, -vous justifiez d’une expérience de minimum 3 ans dans la gestion de projet data science et plateforme data. Compétences Techniques : - Gestion de projet transverse - Expert Dataiku - Expérience de migration SAS vers Dataiku - Compétences en bases de données (Snowflake), SQL, Python, et autres outils de data science - Connaissance de l’outil PowerBI - Travail dans un environnement cloud AWS - Compréhension des problématiques MLOps Compétences Interpersonnelles : - Excellentes capacités de communication (en français et en anglais) - Aptitude à gérer des projets complexes et à collaborer avec diverses équipes (tech + business) - Autonomie et rigueur
Freelance

Mission freelance Expert Dataiku H/F

BI NEWVISION
Publiée le

1 an
500-600 €
Paris, France
Garantir des services opérationnels d’excellence : sécurité des SI et maîtrise des risques opérationnels, qualité de la production informatique et pérennisation du SI. Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et digitale de demain . Améliorer son efficacité opérationnelle, en réponse aux enjeux d’agilité et de time to market, et optimiser les coûts informatiques. Le client souhaite bénéficier d’une expertise en développement sur l’écosystème Dataiku dans un contexte d’industrialisation de workflow dans un environnement spark et Cloudera. Dans ce cadre la prestation consiste à contribuer à/au(x) : - développements d’usages Dataiku : conception technique des développements supervision des traitements en place support à des utilisateurs cérémonies agile (méthode Scrum) Expertises : Spark Python / PySpark Scripting Shell Environnement Cloudera Les livrables attendus sont les suivants : - Validation en fin de sprint des US développées dans le cadre de la mise en place des démos avec le métier - documentation au travers de l’outillage (méthodologie scrum, outillage devops) Les expertises attendues pour réaliser cette prestation sont listées ci-après : Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Hadoop (Big Data) Python Spark
Freelance

Mission freelance Expert Dataiku H/F

BI NEWVISION
Publiée le

1 an
500-580 €
Paris, France
Garantir des services opérationnels d’excellence : sécurité des SI et maîtrise des risques opérationnels, qualité de la production informatique et pérennisation du SI. Délivrer des solutions SI innovantes, orientées clients, pour construire la banque relationnelle et digitale de demain . Améliorer son efficacité opérationnelle, en réponse aux enjeux d’agilité et de time to Market, et optimiser les coûts informatiques. Le client souhaite bénéficier d’une expertise en développement sur l’écosystème Dataiku dans un contexte d’industrialisation de workflow dans un environnement Spark et Cloudera. Dans ce cadre la prestation consiste à contribuer à/au(x) : - développements d’usages Dataiku : conception technique des développements supervision des traitements en place support à des utilisateurs cérémonies agile (méthode Scrum) Expertises : Spark Python / PySpark Scripting Shell Environnement Cloudera Les livrables attendus sont les suivants : - Validation en fin de sprint des US développées dans le cadre de la mise en place des démos avec le métier - documentation au travers de l’outillage (méthodologie Scrum, outillage DevOps) Les expertises attendues pour réaliser cette prestation sont listées ci-après : Compétences en développement (Shell Unix, Perl, PHP, Python, git, Github) Hadoop (Big Data) Python Spark
CDI

Offre d'emploi Chef de Projet Expert Dataiku

Altelios Technology
Publiée le

40k-50k €
Puteaux, Île-de-France
Afin de renforcer nos équipes, nous recrutons un chef de projet Data Paltform Dataiku. Vos missions au sein de l’équipe DATA SCIENCE/IA : En tant que chef de projet Dataiku, vous serez responsable du bon fonctionnement de la plateforme Dataiku et de son adoption au sein de l’organisation de notre client : - Définir et assurer la roadmap du projet avec les grands jalons, - Coordonner les parties prenantes pour la phase de déploiement - Animer la communauté d’utilisateurs (définition des bonnes pratiques / gouvernance) Votre expertise en data science et votre maîtrise de Dataiku et SS seront essentielles pour mener à bien cette mission.
Freelance

Mission freelance Data engineer Expert dataiku python AWS

Kaïbee
Publiée le

1 an
400-580 €
Paris, France
PAS DE SOUS-TRAITANCE // MERCI Pour une mission longue durée, nous recherchons un Data Engineer avec des compétences sur la stack suivante: SPARK / DATAIKU / PYTHON / AWS Responsabilités : Concevoir, développer et entretenir des pipelines de données robustes et évolutifs utilisant des technologies telles que Spark, Python, et Dataiku pour traiter des volumes massifs de données. Collaborer avec les équipes de Data Science et d’analyse pour comprendre les besoins en données et concevoir des solutions adaptées. Optimiser les performances des infrastructures de données et des outils, en mettant l’accent sur l’efficacité, la scalabilité et la fiabilité. Développer et maintenir des solutions de data warehousing sur AWS, en utilisant des services tels que S3, Redshift, ou Glue. Veiller à la qualité des données, à leur intégrité et à leur sécurité tout au long du processus. Compétences: Expérience significative dans le développement de pipelines de données avec Spark, Python et des outils d’intégration comme Dataiku. Maîtrise des services AWS pour la gestion et le traitement de données à grande échelle. Solides compétences en modélisation de données, en architecture de bases de données et en optimisation des requêtes. Compréhension des bonnes pratiques de sécurité des données et de conformité. Capacité à travailler efficacement en équipe et à communiquer de manière claire et précise.
Freelance

Mission freelance Mission Dataiku - Secteur de l’énergie

LINCOLN
Publiée le

6 mois
Ville de Bruxelles, Bruxelles-Capitale, Belgique
- Admin Dataiku - Très bonne expertise sur Dataiku (min 5 ans d’exp) - Bonne capacité de vulgarisation - Véhiculer la bonne pratique de dataiku à l’ensemble des équipes Démarrage à Janvier sur Bruxelles avec 2-3 jours de TT Expérience forte sur Dataiku Environnement AWS Environnement databricks
Freelance

Mission freelance Data Quality Analyst (H/F) - Tableau / Dataiku

Accelite
Publiée le
Agile Scrum
Analyse
Big Data

1 an
400-500 €
Paris, France
En tant que Data Quality Analyst (H/F), vous intervenez au sein d’un grand compte bancaire pour assurer le développement et la mise en œuvre des indicateurs et dashboards sur la qualité des données au sein de la production informatique mutualisée (gestions des données de l’IT), dans un contexte technique complexe, et en méthode agile. Vous assurez le développement des méthodes de contrôle qualité des données avec des dashboards / KPI permettant de piloter les remédiations. Les missions sont : Maitrise Data Quality Management : identification / formalisation des exigences de qualité, mise en place des contrôles et des modalités de suivi de la qualité des données nécessaire. Maitrise Data preparation : développement de flow de préparation, traitement des données afin d’extraire les données essentielles et optimiser les performances dans la data visualisation. Maitrise Data vizualisation : Le développement de dashboards mettant en évidence l’état de santé des bases de données sur différents axes (inventaire, état, résilience, backup, obsolescence. Meta Data Management : analyse fine et compréhension des data sources et données nécessaire à collecter, traitement pour génération des indicateurs et tableaux de bord. Infrastructures IT : connaissance générale sur les différentes solutions de production informatiques et leurs interactions (serveurs, réseaux, télécom, stockage, filtrage, répartition de charge, mainframe, virtualisation, docker, ITIL, ITSM, sécurité informatique, middleware, etc). Compétences recherchées : -Maîtrise Tableau / PowerBI (optionnel) -Maîtrise Dataiku -Maitrise Python -Maîtrise langage SQL (sur PostgreSQL principalement / Oracle / MSSQL) -Aisance consommation de données sur des systèmes distribués (Kafka, ELK, S3 storage) -Connaissance en méta data management, type outil Talend Data Catalogue -Aisance sur les outils agile scrum : Jira / Confluence -Maitrise de l’anglais
CDI

Offre d'emploi Chef de Projet Data - Dataiku (5 ans minimum)

VIVERIS
Publiée le

Puteaux, Île-de-France
Le contexte : Le groupe a fait le choix de Dataiku comme citizen data platform avec l’ambition sur l’année 2024 de déployer la solution dans l’éco-système data (stack AWS/Snowflake), d’onbaorder près de 70 utilisateurs dès la fin de l’année 1 et de réussir la phase de migration des traitements SAS historique. Description du poste : Vos missions au sein de l’équipe DATA SCIENCE/IA : En tant que chef de projet Dataiku, vous serez responsable du bon fonctionnement de la plateforme Dataiku et de son adoption au sein de notre organisation : cela implique de définir et assurer la roadmap du projet avec les grands jalons, de coordoner les parties prenantes pour la phase de déploiement et l’anination de la communauté d’utilisateurs (définition des bonnes pratique / gouvernance). Votre expertise en data science et votre maîtrise de Dataiku et SS seront essentielles pour mener à bien cette mission. Compétences et qualités attendues : Diplômé en informatique, en science des données ou en ingénierie, vous justifiez d’une expérience de minimum 3 ans dans la gestion de projet data science et plateforme data. Compétences Techniques : - Gestion de projet transverse - Expert Dataiku - Expérience de migration SAS vers Dataiku - Compétences en bases de données (Snowflake), SQL, Python, et autres outils de data science - Connaissance de l’outil PowerBI - Travail dans un environnement cloud AWS - Compréhension des problématiques MLOps Compétences Interpersonnelles : - Excellentes capacités de communication (en français et en anglais) - Aptitude à gérer des projets complexes et à collaborer avec diverses équipes (tech + business) - Autonomie et rigueur
Freelance

Mission freelance Expert Dataiku (Python) PARIS

LFZ partners
Publiée le

1 an
520-640 €
Paris, France
Pour une première mission de 1 an, nous recherchons un(e) expert ( e) dataiku avec une bonne connaissance Python Il s’agit d’un poste en CDI temps plein avec Bonus de performance Bonus de publication Autres bonus et avantages (Mutuelle et prévoyance, tickets repas) Date de début de la prestation décembre 2023 / janvier 2024 Poste ouvert aux indépendants (tarif à discuter) Vous participez depuis au moins 3 ans à des projets Dataiku Vous souhaitez évoluer en tant que Référent Dataiku Vous aimez animer des ateliers Dataiku et former vos collègues Vous avez une expertise technique sur DSS, Python, R, PySpark, Big Data , architecture distribuée Idéalement vous possédez des certifications sur DataIku Vous interviendrez sur les sujets suivants : Rédaction des spécifications fonctionnelles et techniques Contribution à la conception, au développement de flux d’alimentation Accompagnement de nos clients sur l’appropriation de nos solutions Conception et développement des jobs avec Data Intégration et Big Data Intégration de DATAIKU, de flux DSS Les skills suivants sont un avantage Des connaissances sur les outils cloud tel que GCP, AWS ou encore Azure et petit plus une maitrise des outils Spark et Scala. Une connaissance de : Docker, ELK, Kubernetes, Cassandra, Kafka, sont un plus, de même que des fondamentaux DevOps (CI / CD).
Freelance

Mission freelance Expert Dataiku H/F

EXteam
Publiée le

3 ans
Hauts-de-Seine, France
Vous participez depuis au moins 3 ans à des projets Dataiku; Vous souhaitez évoluer en tant que Référent Dataiku; Vous aimez animer des ateliers Dataiku Vous avez une expertise technique sur DSS, Python, R, PySpark, Big Data , architecture distribuée ; Idéalement vous possédez des certifications sur DataIku Vos missions : vous intègrerez une équipe de Data Specialists (Data Engineer, Big Data, Data Scientists, Data Analytics, DevOps, CloudOps, Data Architecte ) dans la mise en œuvre d’une stratégie data cloud globale. Vous interviendrez sur les sujets suivants : Rédaction des spécifications fonctionnelles et techniques ; Contribution à la conception, au développement de flux d’alimentation ; Accompagnement de nos clients sur l’appropriation de nos solutions ; Intervention sur des sujets d’avant-vente, de conseil et d’audit Dataiku; Conception et développement des jobs avec Data Intégration et Big Data Intégration de DATAIKU, de flux DSS ;
Freelance

Mission freelance Spécialiste Dataiku sur Tours

UMANTRUST
Publiée le

6 mois
Tours, Centre-Val de Loire
Umantrust recherche pour un de ses clients un spécialiste Dataiku sur tours Compétences Requises : Excellente maîtrise de la plateforme Dataiku, y compris la création de workflows, la gestion des données, et l’utilisation de fonctionnalités avancées. Solides compétences en programmation (Python, R) et en manipulation de données. Compréhension approfondie des concepts de machine learning et de data science. Capacité démontrée à résoudre des problèmes complexes et à optimiser des processus. Excellentes compétences en communication pour interagir efficacement avec des équipes multidisciplinaires.
CDI

Offre d'emploi Data Quality Analyst (H/F)

Accelite
Publiée le
Agile Scrum
Analyse
Base de données

40k-50k €
Paris, France
En tant que Data Quality Analyst (H/F), vous intervenez au sein d’un grand compte bancaire pour assurer le développement et la mise en œuvre des indicateurs et dashboards sur la qualité des données au sein de la production informatique mutualisée (gestions des données de l’IT), dans un contexte technique complexe, et en méthode agile. Vous assurez le développement des méthodes de contrôle qualité des données avec des dashboards / KPI permettant de piloter les remédiations. Les missions sont : Maitrise Data Quality Management : identification / formalisation des exigences de qualité, mise en place des contrôles et des modalités de suivi de la qualité des données nécessaire. Maitrise Data preparation : développement de flow de préparation, traitement des données afin d’extraire les données essentielles et optimiser les performances dans la data visualisation. Maitrise Data vizualisation : Le développement de dashboards mettant en évidence l’état de santé des bases de données sur différents axes (inventaire, état, résilience, backup, obsolescence. Meta Data Management : analyse fine et compréhension des data sources et données nécessaire à collecter, traitement pour génération des indicateurs et tableaux de bord. Infrastructures IT : connaissance générale sur les différentes solutions de production informatiques et leurs interactions (serveurs, réseaux, télécom, stockage, filtrage, répartition de charge, mainframe, virtualisation, docker, ITIL, ITSM, sécurité informatique, middleware, etc). Compétences recherchées : -Maîtrise Tableau / PowerBI (optionnel) -Maîtrise Dataiku -Maitrise Python -Maîtrise langage SQL (sur PostgreSQL principalement / Oracle / MSSQL) -Aisance consommation de données sur des systèmes distribués (Kafka, ELK, S3 storage) -Connaissance en méta data management, type outil Talend Data Catalogue -Aisance sur les outils agile scrum : Jira / Confluence -Maitrise de l’anglais
Freelance

Mission freelance Architect solution Data

TECH INFOS
Publiée le
Apache Spark
API
API REST

2 ans
450-600 €
Paris, France
La prestation consiste à assister le pôle Architecture Solutions Data dans les missions suivantes : Accompagnement et suivi des projets à enjeux data dans l’élaboration et les phases de réalisation des architectures applicatives ; Prendre en compte les contraintes cybersécurité et de conformité réglementaire (RGPD) dans la conception des architectures ; Elaboration de l’architecture data autour des solutions Data au catalogue Décrire les étapes de mise en œuvre de la cible d’architecture data en cohérence avec les systèmes BI actuels et les travaux du domaine data ; Contribuer au plan de transformation sur la gouvernance de la donnée ; Accompagnement et suivi des équipes projets dans les phases de réalisation ; Contribution activité stratégie SI ; Participation aux revues d’architecture des projets BI Management & Data Analytics ; Maintient et évolution du cadre de cohérence technique Data & BI Data & Master Data Management/Référentiel (en collaboration avec les experts et architecte technique) : principes d’architecture, patterns, normes, bonnes pratiques ; Contribuer à la communauté data de la DSI.
Freelance

Mission freelance Data Engineer H/F

CTG
Publiée le
Dataiku
Python
Scala

3 ans
Paris, France
En tant que Data Engineer, vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model. Les projets à adresser visent le développement et maintenance de modules de gestion des données de consommation (intégration, transformation et exposition), de contrats, et leur représentation à travers différentes interfaces. Vous interviendrez aussi bien sur de l’analyse de besoin, design, développement, support, maintenance corrective et évolutive. Vous travaillerez dans une équipe auto-organisée en mode agile avec un Product Owner et 3 BA (Business analystes). Les activités de cette équipe couvrent l’analyse, le développement, les tests, le déploiement et le support. Vos activités principales seront : La montée en compétence sur les process, produits et applications existantes La compréhension du business et la réalisation de développements en pair avec un responsable fonctionnel L’analyse et spécifications des besoins et algorithmes Implémenter les corrections et évolutions en couvrant tous les aspect conception, codage, sécurité, gestion des erreurs, évolutivité, scalabilité, revues de code, testing, intégration continue, ...- Fournir des services aux utilisateurs avec le plus haut niveau de satisfaction. Fournir des estimations de charge et délais Soutenir l’amélioration continue des services. Identifier les goulots d’étranglement et les bugs et définir des solutions à ces problèmes Rédiger et mettre à jour les documentations Proposer des solutions innovantes répondant aux problématiques fonctionnelles et techniques. Travailler en étroite collaboration avec les BA, les utilisateurs, architectes et autres équipes de développement. Fournir une communication efficace et opportune aux différentes équipes concernées
Freelance

Mission freelance Data Engineer PYSPARK H/F

Proxiad
Publiée le
Hadoop
HDFS (Hadoop Distributed File System)
PySpark

3 ans
Val-de-Marne, France
Le Bénéficiaire souhaite bénéficier d’une expertise en développement sur l’ecosystème Dataiku dans un contexte d’industiralisation de workflow dans un environement spark et Cloudera. A ce titre, le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - développements d’usages Dataiku : conception technique des développements supervision des traitements en place support à des utilisateurs cérémonies agile (méthode Scrum) Expertises : Spark Python / PySpark scripting shell Environnement Cloudera Les livrables attendus sont les suivants : - Validation en fin de sprint des US développées dans le cadre de la mise en place des démos avec le métier - documentation au travers de l’outillage (méthodologie scrum, outillage devops) Les expertises attendues pour réaliser cette prestation sont listées ci-après : Compétences en développement (Shell unix, Perl, PHP, Python, git, github) Hadoop (Big Data) Python Spark
CDI

Offre d'emploi DATA Engineer

Management Square
Publiée le

55k-65k €
Île-de-France, France
Les activités qui vous seront confiées sont : - Mise en place de la collecte et la mise à disposition des données - Industrialisation et mettre en production des traitements sur les données - Développements d’usages Dataiku - Conception technique des développements - Supervision des traitements en place - Support à des utilisateurs - Cérémonies agile (méthode Scrum)
Suivant

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2023 © Free-Work / AGSI SAS
Suivez-nous

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !