Trouvez votre prochaine offre d’emploi ou de mission freelance Dataiku

Offre d'emploi
Data Ingénieur Hadoop – Plateforme Big Data
🎯 Contexte de la mission : Vous rejoignez une équipe agile (Tribe composée de 3 Squads) dédiée à l’administration, à l’évolution et à la sécurisation d’une plateforme Big Data stratégique utilisée pour les calculs réglementaires et financiers d’un grand groupe bancaire. Vous interviendrez au sein de la Squad Data Platform , qui assure l’expertise technique sur la stack (Cloudera Hadoop, Linux, Ansible, K8s, Dataiku, Tableau, etc.). 🚀 Vos missions : Assurer le maintien en conditions opérationnelles de la plateforme Gérer les incidents, évolutions, et montées de version Implémenter des solutions IT répondant aux besoins métiers (calculs réglementaires, stress tests, reporting) Participer à l’ automatisation des déploiements via Ansible Contribuer à l’ amélioration continue de la plateforme (sécurité, obsolescence, résilience, documentation, etc.) Proposer des solutions adaptées aux différents composants techniques : Hadoop (HDFS, Hive, Spark) Dataiku DSS, Tableau Applications internes (Java, Angular, Spark, Shell) Participer à la rédaction de documentation technique et à la conception des solutions dans le respect des normes IT internes

Mission freelance
DataOps Platform Engineer
Notre client recherche un DataOps expérimenté pour concevoir, déployer et maintenir l’infrastructure data sur AWS, automatiser les déploiements et garantir la performance, la sécurité et l’optimisation des flux de données. Ce rôle s’inscrit dans un programme stratégique de transformation data visant à déployer des architectures avancées pour supporter des cas d’usage variés tels que l’IA, la personnalisation de contenus et le partage de données partenaires. Environnement technique : Cloud & Infrastructure : AWS (S3, Kinesis, DMS, ECS, Lambda, IAM, VPC, CloudWatch), Linux, Docker, shell scripting Outils & Orchestration : Terraform, GitLab CI/CD, Datadog, PagerDuty Big Data & Analytics : Snowflake, Spark, Dataiku, Python, Power BI Volumes traités : ingestion de +100 To/jour, architectures event-driven et streaming Missions Déployer et maintenir l’infrastructure data sur AWS via Terraform . Mettre en place et optimiser les pipelines GitLab CI/CD . Gérer la sécurité, le monitoring, la journalisation et l’alerting des composants cloud. Assurer le suivi de la consommation et de la performance des ressources AWS. Produire et maintenir la documentation technique et les référentiels. Mettre en place des pratiques FinOps pour optimiser les coûts cloud. Contribuer à la convergence des données et au bon fonctionnement des plateformes data.

Offre d'emploi
Sharepoint Expert N2
Sharepoint Expert N2 Developpements de sites Sharepoints, analyse de données à l'aide de Python, visualisation de données à l'aide de Dataiku et PowerBI. Les compétences de développement Sharepoint sont indispensables. Le candidat devra être titulaire d'au moins une de ces certifications Microsoft Sharepoint MS-301: Deploying SharePoint Server Hybrid (retired) MS-302: Microsoft SharePoint Server 2019 Core Solutions (retired) MS-500: Microsoft 365 Security Administration (not exactly SharePoint developer, but related to SharePoint Online) MS-600: Building applications and solutions with Microsoft 365 core services (includes SharePoint Online) MS-700: Managing Microsoft Teams (includes integration with SharePoint Online) Developpements de sites Sharepoints, analyse de données à l'aide de Python, visualisation de données à l'aide de Dataiku et PowerBI

Mission freelance
Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o
Ops Data Lake Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o
Ops Data Lake Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Offre d'emploi
Développeur fullstack senior (F/H)
Développeur fullstack senior (F/H) - CDI - Montereau-sur-le-Jard (77) - 50-60k€ Contexte : Dans le cadre du lancement d'un projet stratégique de la division Support & Services de notre client, nous recherchons un développeur fullstack senior. L’application vise à optimiser l’Administration des Ventes : automatiser la facturation, fiabiliser la donnée contractuelle et réduire les tâches manuelles, dans un contexte de ramp-up industriel. Missions : Développement front & back de l’application. Intégration et exploitation des données contractuelles (via équipes Dataiku / Data Services). Mise en place de connecteurs et d’APIs (REST ou GraphQL). Réalisation des tests unitaires et d’intégration ; accompagnement recette utilisateurs (UAT). Contribution aux dashboards / analytics (Power BI). Rédaction et maintien de la documentation technique. Participation aux rituels Agile (daily, hebdo, COPIL). Stack technique attendue : Front-End : JavaScript, Bootstrap, React.js Back-End : Express.js, PHP ou Django APIs : RESTful ou GraphQL Bases de données : MySQL, PostgreSQL ou MongoDB DevOps : Docker, Jenkins, GitLab (logique “You build it, you run it”)

Mission freelance
Chef de projet data/BI
Description détaillée Gestion de Projet : Piloter les projets ETL et BI depuis la phase de conception jusqu'à la mise en production, en veillant au respect des délais, budgets et ressources. Élaborer et suivre les plannings, les livrables et les indicateurs de performance des projets. Coordination et Communication : Animer et coordonner les équipes techniques et fonctionnelles pour assurer une bonne collaboration. Organiser des réunions de suivi de projet et des comités de pilotage, et rédiger les comptes-rendus associés. Solide expérience en gestion de projets, idéalement dans un contexte ETL/BI, avec une connaissance approfondie des technologies utilisées par le service. 15 services ETL et BI managés : PowerBI, QlikView, Business Object, Cognos, Tableau, SSRS Informatica Power Center, Semarchy, IBM Datastage, SSIS Informatica Datamasking, Denodo, Dataïku, Alteryx, Amadea Connaissance des outils DevOps et des pratiques Agile, avec une expérience des logiciels tels que Bitbucket, Jenkins, Artifactory, Ansible Tower, Jira. La pratique de l’anglais courant est indispensable (à l’oral comme à l’écrit) en raison des échanges fréquents avec certaines équipes basées à Porto et avec nos fournisseurs. Compétences techniques ETL - Confirmé - Impératif JIRA - Confirmé - Impératif powerBI - Confirmé - Important informatica - Confirmé - Serait un plus Connaissances linguistiques Anglais Professionnel (Impératif)

Mission freelance
Chef de projet production - ETL & BI-N3
CONTEXTE Objectif global : Piloter projet ETL & BI MISSIONS : Gestion de Projet : Piloter les projets ETL et BI depuis la phase de conception jusqu'à la mise en production, en veillant au respect des délais, budgets et ressources. Élaborer et suivre les plannings, les livrables et les indicateurs de performance des projets. Coordination et Communication : Animer et coordonner les équipes techniques et fonctionnelles pour assurer une bonne collaboration. Organiser des réunions de suivi de projet et des comités de pilotage, et rédiger les comptes-rendus associés. Solide expérience en gestion de projets, idéalement dans un contexte ETL/BI, avec une connaissance approfondie des technologies utilisées par le service. 15 services ETL et BI managés : PowerBI, QlikView, Business Object, Cognos, Tableau, SSRS Informatica Power Center, Semarchy, IBM Datastage, SSIS Informatica Datamasking, Denodo, Dataïku, Alteryx, Amadea Connaissance des outils DevOps et des pratiques Agile, avec une expérience des logiciels tels que Bitbucket, Jenkins, Artifactory, Ansible Tower, Jira. La pratique de l’anglais courant est indispensable (à l’oral comme à l’écrit) en raison des échanges fréquents avec certaines équipes basées à Porto et avec nos fournisseurs.

Mission freelance
Data Engineer AWS expérimenté/sal
Data Engineer AWS expérimenté. Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus Date de début souhaitée : début septembre Durée : jusqu'à fin d'année minimum Localisation : Boulogne Billancourt + Télé travail Télétravail possible à hauteur de 50% L'objectif est de déployer jusqu’à l’environnement de production ce qu’on appelle l’environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync) alimenté depuis un datalake on premise. Dans le cadre d’un nouveau produit déployé sur AWS, il faudra mettre en œuvre des services data et un front (cible génération de CR mode speech to speech) : · Résoudre les éventuels problèmes résiduels sur les environnements · Utiliser les services Data AWS, ainsi que bedrock, et les solutions de RAG etc... pour implémenter les Use Case Data et IA Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus Environnement technique : AWS solutions Data et IA
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Recherche partenaire pour un projet innovant dans l'univers de la mode
- Artibot – Un assistant IA français pour générer vos devis artisans en 1 clic
- Le choix du statut juridique de son entreprise
- IPREC, Jedha et la formation TISR (TSSR)
- PARTAGER DE DOSSIER SUR LE SERVEUR WINDOWS
- Choisir SASU IR ou autre solution