Trouvez votre prochaine offre d’emploi ou de mission freelance Dataiku

Votre recherche renvoie 57 résultats.
Freelance
CDI

Offre d'emploi
Data Ingénieur Hadoop – Plateforme Big Data

VISIAN
Publiée le
Ansible
Dataiku
Hadoop

1 an
10k-46k €
100-430 €
Île-de-France, France

🎯 Contexte de la mission : Vous rejoignez une équipe agile (Tribe composée de 3 Squads) dédiée à l’administration, à l’évolution et à la sécurisation d’une plateforme Big Data stratégique utilisée pour les calculs réglementaires et financiers d’un grand groupe bancaire. Vous interviendrez au sein de la Squad Data Platform , qui assure l’expertise technique sur la stack (Cloudera Hadoop, Linux, Ansible, K8s, Dataiku, Tableau, etc.). 🚀 Vos missions : Assurer le maintien en conditions opérationnelles de la plateforme Gérer les incidents, évolutions, et montées de version Implémenter des solutions IT répondant aux besoins métiers (calculs réglementaires, stress tests, reporting) Participer à l’ automatisation des déploiements via Ansible Contribuer à l’ amélioration continue de la plateforme (sécurité, obsolescence, résilience, documentation, etc.) Proposer des solutions adaptées aux différents composants techniques : Hadoop (HDFS, Hive, Spark) Dataiku DSS, Tableau Applications internes (Java, Angular, Spark, Shell) Participer à la rédaction de documentation technique et à la conception des solutions dans le respect des normes IT internes

Freelance

Mission freelance
DataOps Platform Engineer

Cherry Pick
Publiée le
Amazon S3
Apache Spark
AWS Cloud

24 mois
580-630 €
Paris, France

Notre client recherche un DataOps expérimenté pour concevoir, déployer et maintenir l’infrastructure data sur AWS, automatiser les déploiements et garantir la performance, la sécurité et l’optimisation des flux de données. Ce rôle s’inscrit dans un programme stratégique de transformation data visant à déployer des architectures avancées pour supporter des cas d’usage variés tels que l’IA, la personnalisation de contenus et le partage de données partenaires. Environnement technique : Cloud & Infrastructure : AWS (S3, Kinesis, DMS, ECS, Lambda, IAM, VPC, CloudWatch), Linux, Docker, shell scripting Outils & Orchestration : Terraform, GitLab CI/CD, Datadog, PagerDuty Big Data & Analytics : Snowflake, Spark, Dataiku, Python, Power BI Volumes traités : ingestion de +100 To/jour, architectures event-driven et streaming Missions Déployer et maintenir l’infrastructure data sur AWS via Terraform . Mettre en place et optimiser les pipelines GitLab CI/CD . Gérer la sécurité, le monitoring, la journalisation et l’alerting des composants cloud. Assurer le suivi de la consommation et de la performance des ressources AWS. Produire et maintenir la documentation technique et les référentiels. Mettre en place des pratiques FinOps pour optimiser les coûts cloud. Contribuer à la convergence des données et au bon fonctionnement des plateformes data.

Freelance
CDI

Offre d'emploi
Sharepoint Expert N2

VISIAN
Publiée le
microsoft
SharePoint

1 an
40k-45k €
400-710 €
Montreuil, Île-de-France

Sharepoint Expert N2 Developpements de sites Sharepoints, analyse de données à l'aide de Python, visualisation de données à l'aide de Dataiku et PowerBI. Les compétences de développement Sharepoint sont indispensables. Le candidat devra être titulaire d'au moins une de ces certifications Microsoft Sharepoint MS-301: Deploying SharePoint Server Hybrid (retired) MS-302: Microsoft SharePoint Server 2019 Core Solutions (retired) MS-500: Microsoft 365 Security Administration (not exactly SharePoint developer, but related to SharePoint Online) MS-600: Building applications and solutions with Microsoft 365 core services (includes SharePoint Online) MS-700: Managing Microsoft Teams (includes integration with SharePoint Online) Developpements de sites Sharepoints, analyse de données à l'aide de Python, visualisation de données à l'aide de Dataiku et PowerBI

Freelance

Mission freelance
Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Vitrolles, Provence-Alpes-Côte d'Azur

Ops Data Lake Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Ops Data Lake Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

CDI

Offre d'emploi
Développeur fullstack senior (F/H)

Savane Consulting
Publiée le

50k-60k €
Montereau-sur-le-Jard, Île-de-France

Développeur fullstack senior (F/H) - CDI - Montereau-sur-le-Jard (77) - 50-60k€ Contexte : Dans le cadre du lancement d'un projet stratégique de la division Support & Services de notre client, nous recherchons un développeur fullstack senior. L’application vise à optimiser l’Administration des Ventes : automatiser la facturation, fiabiliser la donnée contractuelle et réduire les tâches manuelles, dans un contexte de ramp-up industriel. Missions : Développement front & back de l’application. Intégration et exploitation des données contractuelles (via équipes Dataiku / Data Services). Mise en place de connecteurs et d’APIs (REST ou GraphQL). Réalisation des tests unitaires et d’intégration ; accompagnement recette utilisateurs (UAT). Contribution aux dashboards / analytics (Power BI). Rédaction et maintien de la documentation technique. Participation aux rituels Agile (daily, hebdo, COPIL). Stack technique attendue : Front-End : JavaScript, Bootstrap, React.js Back-End : Express.js, PHP ou Django APIs : RESTful ou GraphQL Bases de données : MySQL, PostgreSQL ou MongoDB DevOps : Docker, Jenkins, GitLab (logique “You build it, you run it”)

Freelance

Mission freelance
Chef de projet data/BI

Cherry Pick
Publiée le
ETL (Extract-transform-load)
Informatica
JIRA

12 mois
400-450 €
Paris, France

Description détaillée Gestion de Projet : Piloter les projets ETL et BI depuis la phase de conception jusqu'à la mise en production, en veillant au respect des délais, budgets et ressources. Élaborer et suivre les plannings, les livrables et les indicateurs de performance des projets. Coordination et Communication : Animer et coordonner les équipes techniques et fonctionnelles pour assurer une bonne collaboration. Organiser des réunions de suivi de projet et des comités de pilotage, et rédiger les comptes-rendus associés. Solide expérience en gestion de projets, idéalement dans un contexte ETL/BI, avec une connaissance approfondie des technologies utilisées par le service. 15 services ETL et BI managés : PowerBI, QlikView, Business Object, Cognos, Tableau, SSRS Informatica Power Center, Semarchy, IBM Datastage, SSIS Informatica Datamasking, Denodo, Dataïku, Alteryx, Amadea Connaissance des outils DevOps et des pratiques Agile, avec une expérience des logiciels tels que Bitbucket, Jenkins, Artifactory, Ansible Tower, Jira. La pratique de l’anglais courant est indispensable (à l’oral comme à l’écrit) en raison des échanges fréquents avec certaines équipes basées à Porto et avec nos fournisseurs. Compétences techniques ETL - Confirmé - Impératif JIRA - Confirmé - Impératif powerBI - Confirmé - Important informatica - Confirmé - Serait un plus Connaissances linguistiques Anglais Professionnel (Impératif)

Freelance

Mission freelance
Chef de projet production - ETL & BI-N3

KEONI CONSULTING
Publiée le
ETL (Extract-transform-load)
JIRA
PowerBI

18 mois
100-400 €
Paris, France

CONTEXTE Objectif global : Piloter projet ETL & BI MISSIONS : Gestion de Projet : Piloter les projets ETL et BI depuis la phase de conception jusqu'à la mise en production, en veillant au respect des délais, budgets et ressources. Élaborer et suivre les plannings, les livrables et les indicateurs de performance des projets. Coordination et Communication : Animer et coordonner les équipes techniques et fonctionnelles pour assurer une bonne collaboration. Organiser des réunions de suivi de projet et des comités de pilotage, et rédiger les comptes-rendus associés. Solide expérience en gestion de projets, idéalement dans un contexte ETL/BI, avec une connaissance approfondie des technologies utilisées par le service. 15 services ETL et BI managés : PowerBI, QlikView, Business Object, Cognos, Tableau, SSRS Informatica Power Center, Semarchy, IBM Datastage, SSIS Informatica Datamasking, Denodo, Dataïku, Alteryx, Amadea Connaissance des outils DevOps et des pratiques Agile, avec une expérience des logiciels tels que Bitbucket, Jenkins, Artifactory, Ansible Tower, Jira. La pratique de l’anglais courant est indispensable (à l’oral comme à l’écrit) en raison des échanges fréquents avec certaines équipes basées à Porto et avec nos fournisseurs.

Freelance

Mission freelance
Data Engineer AWS expérimenté/sal

WorldWide People
Publiée le
AWS Cloud

4 mois
400-450 €
Boulogne-Billancourt, Île-de-France

Data Engineer AWS expérimenté. Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus Date de début souhaitée : début septembre Durée : jusqu'à fin d'année minimum Localisation : Boulogne Billancourt + Télé travail Télétravail possible à hauteur de 50% L'objectif est de déployer jusqu’à l’environnement de production ce qu’on appelle l’environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync) alimenté depuis un datalake on premise. Dans le cadre d’un nouveau produit déployé sur AWS, il faudra mettre en œuvre des services data et un front (cible génération de CR mode speech to speech) : · Résoudre les éventuels problèmes résiduels sur les environnements · Utiliser les services Data AWS, ainsi que bedrock, et les solutions de RAG etc... pour implémenter les Use Case Data et IA Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus Environnement technique : AWS solutions Data et IA

57 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous