L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 814 résultats.
Offre d'emploi
Product Owner Data H/F
Publiée le
48k-60k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Product Owner confirmé(e) responsable de l'optimisation de la valeur du produit afin de satisfaire les clients et capable de porter la vision produit au sein de l'organisation. Vous aurez la charge de : • Définir et communiquer la vision du produit • Alimenter, partager et prioriser le backlog avec l'équipe • Définir la roadmap stratégique du produit • Défendre le produit auprès des instances de direction • Être le point de convergence de l'ensemble des contributeurs du produit Référence de l'offre : k170vt48pi
Offre d'emploi
Lead Data Engineer
Publiée le
Python
60k-80k €
Paris, France
Télétravail partiel
Lead Technique Data Missions En tant que Lead Technique Data , vous collaborez étroitement avec des data engineers , data scientists et des équipes transverses (DevOps, IoT, logiciel). Votre mission principale consiste à concevoir, maintenir et optimiser une plateforme de données au cœur des projets d’IA. 1. Gestion et optimisation de la plateforme de données Normaliser et structurer les données : homogénéisation des formats, conception d’ontologies, mise en place de bonnes pratiques garantissant qualité et cohérence. Améliorer continuellement la plateforme : sécurité, scalabilité, optimisation des coûts, supervision et traçabilité. Mettre en œuvre la gestion de versions des données afin d’assurer une traçabilité complète, indispensable dans un contexte de dispositifs médicaux. 2. Développement de pipelines de transfert de données Concevoir et maintenir des pipelines ETL automatisés pour l’ingestion, le nettoyage et la transformation de données de santé. Garantir le respect des exigences RGPD : anonymisation, pseudonymisation et documentation complète des processus. Collaborer avec les équipes métiers pour intégrer de nouvelles sources de données et faire évoluer les pipelines. 3. Facilitation de l’accès aux données pour les data scientists Créer et gérer des datasets versionnés permettant des expérimentations reproductibles. Assurer des transferts de données volumineuses rapides, sécurisés et fiables. Adapter la plateforme aux besoins des data scientists : formats, structuration, enrichissement des métadonnées et support technique. 4. Automatisation et leadership technique Maintenir et améliorer les pipelines CI/CD pour des déploiements robustes et sécurisés. Déployer des outils de supervision (tableaux de bord, alertes) pour assurer la stabilité des pipelines. Industrialiser les déploiements des infrastructures data. Apporter un leadership technique : cohérence architecturale, accompagnement des profils plus juniors, revues de code et diffusion des bonnes pratiques. L’équipe Data intervient de manière end-to-end : recueil des besoins, architecture, développement, QA, sécurité, déploiement et opérations, avec une réelle liberté technologique. Compétences et expérienceCompétences techniques Programmation : Python (avancé), Git / GitLab CI. Cloud & Big Data : AWS (API Gateway, Cognito, Lambda, S3, SageMaker, Glue, Athena, ECS), Delta Lake, Databricks. Orchestration & Infra : Airflow, Terraform. Bases de données : MongoDB et solutions de stockage à grande échelle. Standards web : API REST, protocoles HTTP/HTTPS. Compétences relationnelles Rigueur scientifique et forte capacité d’analyse. Aptitude à faire le lien entre data science, ingénierie logicielle et opérations. Capacité à produire une documentation technique claire et conforme aux exigences réglementaires. Expérience Minimum 7 ans d’expérience en ingénierie data, dont 2 ans ou plus sur un rôle senior ou de responsabilité technique. Bonne compréhension des enjeux de cybersécurité et de conformité réglementaire , en particulier pour les données de santé. Maîtrise de l’ anglais technique dans un environnement international. Atouts appréciés (optionnel) MLOps : orchestration, déploiement et supervision de pipelines ML. Connaissance des processus de certification CE / FDA pour logiciels ou algorithmes. Expérience avec des données de santé : signaux électrophysiologiques (EEG, ECG, EMG) ou données cliniques. Infrastructure : Linux, conteneurisation (Docker, registres d’images). Lieu de la mission: Paris TT: 3 jours
Mission freelance
CHEF DE PROJET MOE BI/DATA
Publiée le
Snowflake
6 mois
Paris, France
YGL recherche un Chef de Projet BI confirmé à senior pour intervenir sur des projets décisionnels stratégiques . La mission s’inscrit dans un contexte de forts enjeux de pilotage métier , avec des attentes élevées sur la mise en place et le suivi d’indicateurs de performance pour les équipes opérationnelles. MISSIONS: Recueil et analyse des besoins métiers en Business Intelligence Pilotage global des projets BI, de la phase de cadrage jusqu’à la mise en production Gestion du planning, du plan de charge et du suivi des activités Animation des comités projets (Coproj, Copil) et rédaction des comptes rendus Coordination des parties prenantes (métiers, équipes techniques, data) Rédaction, lecture et validation des spécifications fonctionnelles et techniques Suivi de la qualité, des délais et des livrables
Offre d'emploi
Data Engineer Snowflake
Publiée le
DBT
Snowflake
3 ans
Paris, France
Télétravail partiel
Missions principales INGÉNIERIE DATA / PIPELINES Concevoir, développer et maintenir des pipelines ETL/ELT robustes et scalables. Industrialiser l’ingestion de données (batch et streaming si pertinent). Modéliser les données selon des standards modernes (ex : Medallion Architecture : Bronze / Silver / Gold ). Garantir la qualité, la traçabilité et la gouvernance des données. SNOWFLAKE / MODÉLISATION Concevoir et optimiser des modèles de données dans Snowflake . Mettre en place des bonnes pratiques de partitionnement, clustering et performance. Optimiser les requêtes SQL et les coûts de consommation Snowflake (warehouses). Gérer les rôles, accès et sécurité des données (RBAC, masking, row-level security). AUTOMATISATION / INDUSTRIALISATION Mettre en place des pipelines CI/CD pour les transformations data (dbt, Git, etc.). Utiliser des outils d’orchestration (Airflow, Prefect, Dagster ou équivalent). Déployer l’Infrastructure as Code pour les environnements data (Terraform apprécié). QUALITÉ / OBSERVABILITÉ DES DONNÉES Mettre en place des contrôles de qualité des données (tests, anomalies, SLA data). Implémenter une observabilité data (alerting, monitoring des pipelines, fraîcheur des données). Documenter les jeux de données et leurs usages (Data Catalog / Data Governance). COLLABORATION / PRODUITS DATA Travailler avec les Data Analysts, BI et Data Scientists. Collaborer avec les équipes Cloud/DevOps sur l’infrastructure data. Participer aux rituels Agile (Daily, Sprint, Retro, etc.). Contribuer à la documentation et au partage de connaissances.
Mission freelance
DBA NoSQL & Big Data (MongoDB / Cassandra)
Publiée le
Nosql
6 ans
400-550 €
Paris, France
Télétravail partiel
Spécialiste des bases de données distribuées, vous êtes responsable de l'administration et de la scalabilité des clusters NoSQL (MongoDB, Cassandra ou Couchbase) supportant les applications digitales. Votre mission consiste à concevoir des architectures résilientes, à assurer le partitionnement optimal des données (sharding) et à garantir des temps de réponse ultra-faibles pour les services transactionnels. Vous gérez l'installation, la configuration, le monitoring et les mises à jour des environnements de pré-production et production. Vous conseillez les développeurs sur les modèles de données documentaires ou orientés colonnes pour maximiser les performances applicatives. Vous mettez en place des stratégies de réplication multi-sites et d'archivage, tout en automatisant les tâches récurrentes d'exploitation via Ansible ou Terraform dans un contexte de croissance massive des volumes de données.
Mission freelance
Architecte Technique Data
Publiée le
Architecture
Data management
12 mois
400-650 €
Île-de-France, France
Nous recherchons un(e) Architecte Technique Data pour accompagner les projets Data et contribuer à la définition et à l’évolution de la stratégie technique du Groupe. Vous travaillerez en étroite collaboration avec les autres architectes et les équipes Data afin d’apporter votre expertise sur les produits et plateformes liés à la donnée. Vos missions 🧩 Design et choix des solutions Accompagner les projets orientés Data dès les phases de cadrage et tout au long du développement Préconiser les choix de solutions techniques et veiller au respect des normes et standards Animer l’innovation et l’amélioration continue via des démarches test & learn , proof of value et analyses d’impact Contribuer à la veille technologique Data en lien avec les équipes spécialisées Participer à l’élaboration et au déploiement de la stratégie technique Data Contribuer à la définition des cibles d’architecture technique en lien avec l’architecture transverse Groupe Faire évoluer le cadre de cohérence technique et les normes Groupe en matière de gestion de la donnée 🔄 Modernisation du Système d’Information Évaluer la pertinence et la cohérence des projets vis-à-vis de l’ architecture cible Identifier les situations de complexité ou d’obsolescence du SI et promouvoir des solutions modernes, cloud-ready et scalables S’assurer de l’alignement des projets d’évolution avec la stratégie technique cible Contribuer à l’évolution des cycles de vie des produits, services et solutions Mettre à jour les référentiels documentaires Participer à l’animation de la gouvernance d’architecture et au partage des décisions structurantes
Mission freelance
Responsable d’Application (RUN & DATA GCP)
Publiée le
Git
Reporting
Shell
6 mois
Lille, Hauts-de-France
Télétravail partiel
Localisation : Lille Contexte : International 1) Description de la mission Située dans un contexte international, cette mission concerne la gestion de plusieurs produits digitaux récemment déployés, avec des enjeux clés tels que : la fiabilité la continuité de service la qualité des données la performance opérationnelle Le poste de Responsable d’Application combine une responsabilité majeure dans le domaine du RUN applicatif (support, gestion des incidents, maintien en conditions opérationnelles, performance) et une contribution technique liée aux composants DATA sur GCP. Il s’inscrit dans une démarche d’amélioration continue et de développement progressif des compétences sur la stack technologique. Le profil recherché doit être à la fois technico-fonctionnel, avec une orientation vers le pilotage du RUN et du support applicatif, plutôt que vers un rôle exclusivement de développement. 2) Objectifs & responsabilités principales Pilotage du RUN applicatif Assurer la gestion des incidents et des problèmes Garantir le maintien en conditions opérationnelles (MCO) Suivre la performance à l’aide de KPI et produire un reporting régulier Maintenir la stabilité et la continuité du service pour le périmètre concerné Pilotage opérationnel & coordination transverse Animer les instances de projet et de run : COMOP / COPIL Coordonner les différentes parties prenantes : équipes IT, métiers, TMA, éditeurs, pays Gérer le pilotage opérationnel global et assurer le suivi des actions Mise en production & évolutions Accompagner les mises en production (MEV) Suivre l’avancement des projets et évolutions du périmètre Garantir la maîtrise à la fois fonctionnelle et technique des outils Assurer la maintenance évolutive Contribution DATA (GCP) Analyser et comprendre les flux de données et leurs usages Intervenir techniquement sur des aspects tels que SQL ou troubleshooting data Développer ou faire évoluer certains composants sous GCP si nécessaire Participer activement à l’amélioration continue et à la montée en compétences sur la stack DATA 3) Livrables attendus Suivi du RUN avec : – Tableaux de bord KPI – Reporting régulier (incidents, performance, disponibilité) Comptes rendus et supports d’instances : – COMOP / COPIL – Plan d’actions pour le RUN et l’amélioration continue Suivi des mises en production (MEV) : – Préparation, coordination, validation et accompagnement Documentation opérationnelle et technique du périmètre Analyses des flux DATA et résolution d’anomalies
Mission freelance
Data Architect GCP
Publiée le
Apache
Apache Airflow
Apache Spark
12 mois
540-600 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
L’objectif principal est la conception et la mise en œuvre d’un Data Lake moderne sur GCP , basé sur une architecture Médaillon (Bronze / Silver / Gold) et s’appuyant sur Apache Iceberg , avec la capacité de détacher une brique autonome pour certains clients manipulant des données sensibles. Missions principalesArchitecture & Data Platform Concevoir et mettre en place un Data Lake sur GCP basé sur Apache Iceberg Définir et implémenter une architecture Médaillon (ingestion, transformation, exposition) Participer aux choix d’architecture pour une brique data autonome dédiée aux données sensibles Contribuer à l’ internalisation de la plateforme data (design, outillage, bonnes pratiques) Data Engineering Développer des pipelines d’ingestion pour : Données capteurs issues de drones Données tabulaires associées Gérer des pics de charge importants (jusqu’à 10 Go ingérés simultanément) Garantir la disponibilité rapide des données après les vols d’essai Mettre en place des contrôles de qualité, traçabilité et gouvernance des données Data & Analytics Préparer les données pour des cas d’usage de maintenance prédictive Optimiser les performances de lecture et d’écriture (partitionnement, schéma, versioning) Collaborer avec les équipes data science / métier Sécurité & conformité Travailler dans un contexte habilitable (données sensibles, clients spécifiques) Appliquer les contraintes de sécurité et de cloisonnement des données
Mission freelance
Proxy Product Owner Data H/F
Publiée le
Proxy
3 mois
420-480 €
Paris, France
Télétravail partiel
Notre client Grand Compte situé à Paris, recherche un Proxy Product Owner Data . Projet : Mise à disposition des managers/analystes/cadres du client d’un outil intuitif d’analyse massive des courses conducteurs conçu pour renforcer la sécurité ferroviaire et la régularité des circulations sur le réseau RER : Fournit une visualisation claire des indicateurs clés de conduite et des courbes de vitesse permettant d’identifier les pratiques/tendances/zones de vigilance Devient un support central pour accompagner la montée en performance des conducteurs Permet un suivi précis des gestes métiers (individuellement et par groupes de conducteurs) : Anticiper les écarts impactant la sécurité ferroviaire Vérifier la conformité de la conduite par rapport aux exigences de régularité Cibler les actions d’instruction ou de sensibilisation Améliorer la connaissance collective et indicateurs d’exploitation S’inscrit dans une démarche d’amélioration continue au service de la performance du RER
Mission freelance
Data engineer(H/F)
Publiée le
Azure
Python
SQL
3 ans
400-500 €
Hauts-de-Seine, France
DATA ENGINEER AZURE (KPI, DBT, MÉTIER) Intitulé Data Engineer Azure – KPI, dbt (Data Build Tool) & compréhension métier __________ Contexte Dans le cadre du renforcement de son équipe data, le client recherche un Data Engineer capable d’intervenir à la fois sur la technique et sur la compréhension de l’usage de la donnée. L’équipe data est déjà en place. Le besoin porte sur un profil capable de : • dialoguer avec les équipes métier, • établir des KPI, • et maîtriser dbt (Data Build Tool), outil central permettant de modéliser la donnée et de définir clairement comment elle doit être utilisée et exploitée. __________ Attentes principales du client Le client attend un consultant qui : • Sait établir des KPI à partir des besoins métier, • Comprend la logique métier derrière les indicateurs, • Maîtrise dbt (Data Build Tool) pour transformer et modéliser la donnée, • Est capable d’expliquer et de justifier les règles de calcul des KPI. dbt est utilisé comme un outil de structuration et de compréhension de la donnée, et non uniquement comme un outil technique. __________ Rôle du consultant • Être un interlocuteur data privilégié des équipes métier • Comprendre les processus et enjeux business • Traduire les besoins métier en KPI clairs et cohérents • Utiliser dbt (Data Build Tool) pour modéliser la donnée et formaliser les règles de calcul • Travailler en complément et en accompagnement de l’équipe data existante __________ Missions principales Métier & KPI • Échanger avec les équipes métier • Comprendre leurs objectifs et problématiques • Établir et formaliser des KPI • Clarifier les définitions et règles de calcul des indicateurs • S’assurer que la donnée produite correspond à un usage concret Data & technique • Intervenir sur un environnement Microsoft Azure • Travailler sur Microsoft Fabric • Transformer et modéliser la donnée avec dbt (Data Build Tool) • Exploiter la donnée via SQL et Python • Garantir la cohérence, la lisibilité et la compréhension des modèles de données • Participer à la mise en production et à l’industrialisation • Documenter les modèles, transformations et KPI __________ Environnement technique • Cloud : Microsoft Azure • Plateforme data : Microsoft Fabric • Transformation & modélisation : dbt (Data Build Tool) • Langages : SQL, Python • Collaboration étroite avec équipes data et métier __________ Profil recherché • Data Engineer confirmé • À l’aise dans les échanges avec des interlocuteurs métier • Capable d’établir des KPI • Bonne compréhension de l’usage et de la valorisation de la donnée • Expérience concrète sur dbt (Data Build Tool) • Expérience sur Microsoft Fabric • Solide niveau en SQL • Esprit collaboratif, pédagogue et pragmatique __________ Qualités attendues • Bon communicant • Capacité à vulgariser la donnée • Sens du service et du collectif • Approche orientée valeur métier • Capacité à s’intégrer dans une équipe existante
Offre d'emploi
BA/MOA - Data Quality (7 ans et plus)
Publiée le
Business Analysis
Business Analyst
Gestion de projet
3 ans
45k-70k €
450-620 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre de la réglementation Basle III, le référentiel client CIB doit améliorer son niveau de qualité et s'aligner avec les autres Référentiel de la banque. En lien avec les équipes IT et Ops, la mission proposée a pour objectifs de lister les améliorations techniques et opérationnelles nécessaires pour spécifier les actions (MOA). 💡 Missions : A l'aide de la documentation et en interviewant les entités, lister les améliorations nécessaires pour améliorer la qualité du référentiel. Spécifier les actions opérationnelles et les besoins de développements pour s'aligner au Référentiel groupe. Analyse et Integration de nouveaux indicateurs de qualité produits par CDO et le programme (CRM KQI) dans le BAU. A l'aide des outils informatiques (Base de données Python, Excel, Business Object, Tableau), extraire et produire les indicateurs et volumétries permettant de piloter les progrès de la qualité. Participer aux réunions et aux groupes de travail, rédiger les minutes et les conclusions. préparer les supports de réunions. En tant que MOA du projet pour Référentiel Ops, rédiger les documentations (spécifications, procédures, ...).
Mission freelance
Consultant fonctionnel AMOA SAP FI
Publiée le
AMOA
SAP
12 mois
650-900 €
75016, Paris, Île-de-France
Télétravail partiel
Consultant AMOA Finance SAP S/4HANA – Lead Direction Financière (Freelance) Introduction Dans le cadre d’un projet stratégique de transformation Finance autour de SAP S/4HANA, un grand groupe industriel recherche un consultant freelance AMOA Finance capable de prendre un rôle de leader auprès de la Direction Financière. Le contexte projet nécessite un profil senior, orienté métier, capable de structurer et faire avancer les équipes Finance. Objectif de la mission Accompagner la Direction Financière dans le cadre du projet d’implémentation SAP S/4HANA, en prenant le lead AMOA Finance afin de sécuriser les décisions métier et garantir l’avancement des travaux Finance. Missions principales Être le référent AMOA Finance auprès de la Direction Financière Structurer et piloter les travaux Finance dans le cadre du projet SAP S/4HANA Faire l’interface entre les équipes Finance, l’intégrateur et les équipes IT Challenger les choix fonctionnels et sécuriser les arbitrages métier Apporter une forte expertise métier Finance pour guider les équipes Accompagner le change management côté Finance Participer aux instances de gouvernance et à la communication projet
Offre d'emploi
Administrateur Bases de Données PostgreSQL / MySQL – Senior (H/F)
Publiée le
Cloud
MariaDB
MySQL
1 an
Ivry-sur-Seine, Île-de-France
Contexte Rattaché à l’équipe Administration des Bases de Données au sein de la DSI, le consultant intégrera une équipe de plus de 10 DBA dédiée à la mise en œuvre et à l’exploitation de projets de grande envergure . La mission porte sur l’ administration opérationnelle en production de bases de données critiques sur PostgreSQL et MySQL , avec une forte composante RUN, projets, automatisation et Cloud . Objectif de la mission Assurer l’ administration, l’exploitation et l’évolution des bases de données PostgreSQL et MySQL en environnement de production, tout en accompagnant les projets d’architecture, de performance, de sécurité et d’automatisation. Missions principales RUN / Exploitation Administration des bases de données PostgreSQL et MySQL . Support N3 / Expertise , en lien avec les équipes de développement et d’exploitation. Suivi du MCO et mise en place des procédures d’exploitation . Gestion des incidents, changements et problématiques de production. Gestion du PRA et de la continuité de service. Supervision, homologation et veille technologique . Projets & Architecture Participation aux projets d’architecture, de déploiement et d’évolution des SGBD. Optimisation des performances et de la configuration des bases. Maîtrise des opérations de patching, upgrades et migrations . Définition et mise en œuvre des stratégies de sauvegarde, restauration, PITR . Mise en place et gestion de la réplication , des clusters et de la haute disponibilité : PostgreSQL (Patroni) MySQL (Group Replication) Gestion du failover et des stratégies de bascule automatique. Automatisation & Cloud Étudier et accompagner le déploiement des SGBD sur des solutions Cloud / opérateurs . Proposer et mettre en œuvre des tâches d’automatisation pour les déploiements et l’administration. Utilisation et maintien des outils d’automatisation : Ansible, Git . Sécurité & Gouvernance Participation aux projets sécurité, audit et gestion des accès . Contribution aux bonnes pratiques de conformité et de sécurité des données. Environnement technique SGBD : PostgreSQL, MySQL, MariaDB Haute disponibilité : Patroni, MySQL Group Replication Automatisation : Ansible, Git Cloud & conteneurs : OpenStack, OpenShift, Docker Systèmes : Linux (RHEL, Ubuntu, CentOS, Oracle Linux, AIX) Sauvegardes : Commvault, Veeam, DataDomain (ou équivalents) Virtualisation : VMware Compétences techniques Impératives : PostgreSQL – Expert MySQL – Expert Importantes : MariaDB – Confirmé Souhaitables : Cloud Automatisation (Ansible, Git) Compétences linguistiques Français courant (impératif) Anglais professionnel (impératif)
Mission freelance
Tech Lead DATABRICKS (Lyon)
Publiée le
Azure Data Factory
Java
1 an
500-650 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un leader technique. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Mission freelance
Data Engineer Azure Synapse / (Intégration Data - Référentiel )
Publiée le
12 mois
500 €
France
Data Engineer Azure Synapse / PySpark (Intégration Data - Référentiel Corporate) Secteur : Financial Services / Asset Management Contrat : Mission freelance - 6 mois renouvelables Localisation : France / Hybride 🔍 Contexte Un groupe international de gestion d'actifs recherche un Data Engineer confirmé pour participer à la modernisation et à la consolidation de son référentiel data interne , dans un programme stratégique d'intégration multi‑sources. 🎯 Votre rôle Développer de nouveaux flux d'intégration via Azure Synapse / PySpark Assurer la qualité, la cohérence et la traçabilité des données Contribuer à la mise en place du monitoring Data sur l'ensemble des pipelines Collaborer étroitement avec les Business Analysts et l'équipe Data Analytics Participer aux évolutions continues de la plateforme Data Azure 🧱 Compétences techniques clés Azure Synapse PySpark Azure DevOps SonarCloud Micro‑services API Management Microsoft Playwright Azure Data Factory SQL Server (RDBMS) 👤 Profil recherché Bac+5 (ingénieur ou équivalent) Min. 3 ans d'expérience en développement Data sur Azure Bonne maîtrise des pratiques DevOps & automatisation des tests Connaissance du secteur financier / Asset Management appréciée Excellent niveau FR & EN 📅 Démarrage : 2 février 2026
Offre d'emploi
Data Analyst (Junior/Confirmé) H/F
Publiée le
Dataiku
PySpark
40k-45k €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de nos activités Data, nous souhaitons recruter en CDI un(e) Data Analyst capable de contribuer à la préparation des données , à l’ analyse , et à la mise à disposition d’indicateurs pour les métiers, avec une forte utilisation de Dataiku et PySpark . Périmètre du poste: Le/la Data Analyst interviendra sur des sujets d’analyse et de transformation de données, en lien avec les équipes métier et data. Missions principales (à adapter) : Explorer, nettoyer et préparer les données pour l’analyse (qualité, cohérence, complétude) Construire des jeux de données analytiques et des transformations via Dataiku et/ou PySpark Produire et maintenir des indicateurs (KPI), reportings et analyses ad hoc Documenter les sources, la logique de calcul, et les règles métier Contribuer à l’amélioration continue : automatisation de tâches, fiabilisation des pipelines, contrôle qualité
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- deduction loyer et contrat de mise à disposition
- Mes données de la CIPAV (trimestre, droit) ont disparues sur lassuranceretriate
- Micro-entreprise après EURL ?
- Ajout d'une deuxième activité en tant que micro-entrepreneur
- domiciliation et etablissement principal
- Compte Autoentrepreneur - Création ou modification
5814 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois