Trouvez votre prochaine offre d’emploi ou de mission freelance Dash à Paris
Votre recherche renvoie 316 résultats.
Mission freelance
Scrum master Data
Tritux France
Publiée le
Agile Scrum
Azure Data Factory
Azure DevOps
3 mois
400-550 €
Paris, France
POSTE: SCRUM MASTER DATA SENIOR Objectifs de la mission : · Uniformiser les pratiques Agile sur l’ensemble du périmètre · Stabiliser et sécuriser les cycles de sprint · Améliorer la qualité du backlog et des User Stories · Structurer les processus de production, d’arbitrage et de communication · Mettre en place un pilotage clair : capacité, consommés, KPIs, roadmap · Assurer la synchronisation et la gestion des dépendances inter squads Périmètre d’intervention · Animation des rituels : daily, refinements, poker plannings, sprint plannings, reviews, rétros · Vision prévisionnelle de la capacité et du backlog sur les prochains sprints · Construction d’une roadmap consolidée · Amélioration de la qualité des US : découpage, prérequis, critères d’acceptation · Mise en place / harmonisation de la Definition of Ready et Definition of Done · Alignement des pratiques entre les équipes · Production des release notes et mise en place des KPIs de delivery · Standardisation des checklists de livraison / reprise de données (UAT, OAT, PRD) · Analyse de charge, détection d’anomalies, gestion proactive des risques · Mise en place d’un reporting clair et régulier vers la Data Factory Livrables types attendus · Cadre Agile documenté et harmonisé · Processus formalisés (production, arbitrage, communication) · Roadmap + capacité prévisionnelle · Tableau de bord CAF / consos / KPIs · Release notes pour chaque MEP · Synthèse et présentation aux responsables Data Profil recherché : · 8+ ans d’expérience en Scrum Mastery dans des contextes complexes et exigeants · Expertise en delivery Data · Solide expérience en coordination multi‑prestataires · Forte capacité de structuration, formalisation et communication · Leadership non hiérarchique, autonomie, rigueur, assertivité · Culture du delivery prévisible et du continuous improvement · Bonne connaissance de Jira & Azure DevOps
Offre premium
Mission freelance
Lead Developer Python Finance de Marché (Daily Prices Toolbox)
OCSI
Publiée le
FastAPI
Finance
Market data
1 an
550-640 €
Paris, France
🚀 Contexte & Enjeux Dans le cadre de la refonte d’une plateforme critique de gestion des prix quotidiens (Daily Prices), nous recherchons un Lead Developer Python pour concevoir et piloter une nouvelle génération d’outils de pricing. Le système actuel couvre un large spectre d’instruments (actions, futures, obligations, IRS…) mais souffre aujourd’hui de limites structurelles : complexité croissante liée à la diversité des produits et sources manque de visibilité sur le cycle de vie des données difficultés opérationnelles pour les équipes support et data problèmes de performance et de scalabilité Votre mission : reconstruire un socle robuste, transparent et scalable permettant de restaurer la confiance des utilisateurs et fluidifier les opérations. 🧩 Vos responsabilités En tant que Lead Developer, vous serez au cœur de la transformation : Architecture & conception Définir l’architecture cible de la plateforme Concevoir une API Python robuste et scalable Mettre en place une abstraction des systèmes legacy (notamment Oracle) Développement backend Développer une API exposant : le statut des prix les événements de traitement les opérations bulk (validation, rejet, retraitement) Garantir la qualité, la performance et la sécurité Pilotage technique Encadrer les développements (best practices, code review) Collaborer avec les équipes data engineering et support Participer aux choix technologiques structurants Vision produit Améliorer la visibilité et la traçabilité des données Réduire les temps d’investigation et les erreurs opérationnelles Contribuer à une expérience utilisateur fluide
Offre d'emploi
Administrateur SAP
Lùkla
Publiée le
Centreon
DevOps
Oracle
2 ans
45k-50k €
300-400 €
Paris, France
Dans le cadre du renforcement de nos équipes de production pour un acteur majeur du secteur de l'énergie, nous recherchons un Administrateur SAP N2 spécialisé en maintien en condition opérationnelle (MCO). Intégré au pôle SAP, vous serez un acteur clé de la continuité de service et de la performance des environnements de notre client. En tant qu'Administrateur SAP N2, vous intervenez sur l'ensemble de la chaîne de valeur RUN (incidents, demandes, changements, administration). 1. Maintien en condition opérationnelle (MCO) & support Gestion des Incidents : Prise en charge et résolution des incidents de niveau 2 pour rétablir le service dans le respect des SLAs. Escalade vers l'expertise N3 ou les autres pôles techniques (Réseau, Stockage, Système) si nécessaire. Analyse Post-Mortem : rédaction de REX pour les incidents critiques et mise en œuvre d'actions correctives durables. Traitement des demandes : Réalisation des demandes de travaux complexes ou non procédurées. Optimisation et automatisation des tâches récurrentes. 2. Administration & performance du périmètre Refresh SAP : réalisation autonome des rafraîchissements d'environnements selon le calendrier établi. Monitoring & capacity planning : suivi de la volumétrie et adaptation de la supervision (via SAP Solution Manager, HANA Cockpit, Centreon). Analyse des rapports EarlyWatch Alert (EWA). Maintenance technique : gestion de l'obsolescence, correction des vulnérabilités et mise à jour des composants techniques (Kernel, ST-PI, ST-API). 3. Gestion des changements & pilotage Coordination : établissement des chronogrammes d'opérations et participation aux comités de validation des changements (CAB). Communication : définition et déploiement du plan de communication technique lors des opérations sur les environnements. Collaboration : interface privilégiée avec les équipes d'exploitation et d'ingénierie (Système, Stockage, Sauvegarde). Compétences techniques requises : Administration SAP Basis : maîtrise des environnements SAP (ECC, S/4HANA, etc.). Bases de données : SAP HANA (HANA Cockpit), Oracle (OEM). Outils de supervision : SAP Solution Manager (Solman), Centreon. Système & Scripting : connaissances Linux/Unix et capacité à automatiser des tâches. Documentation : capacité à rédiger des procédures d'exploitation claires et structurées.
Offre premium
Offre d'emploi
PO DATA (FH)
ASTRELYA
Publiée le
Data governance
3 ans
55k-70k €
400-550 €
Paris, France
Votre Mission : En tant que PO Data, vous piloterez des projets de transformation sur des produits Data et IA dans des contextes Marketing, CRM, KYC. Vous jouerez un rôle clé dans le cadrage, la structuration et le pilotage de travaux stratégiques, en coordination avec de multiples acteurs internes et externes. Concrètement vous allez : Intégrer un dispositif existant et piloter les nouveaux projets DATA/IA sur l’ensemble des phases : cadrage, Expression des Objectifs, MVP et démarrage des développements. Recueillir, challenger, analyser et prioriser les besoins data des métiers Concevoir les expressions de besoins afférentes Définir la vision data de son périmètre et en construire la roadmap Prioriser les évolutions data en fonction de la valeur pour les métiers et/ou les clients Collaborer avec l’équipe de PO data de tous les périmètres des paiements pour s’assurer de la cohérence de la démarche mise en place Participer aux rituels agiles Garantir la cohérence des données entre les différents métiers, et plus globalement la qualité et la pertinence des livrables data mis à disposition des métiers et/ou des clients Suivre les indicateurs de performance sur son périmètre et mesurer la valeur des solutions mises à disposition Accompagner les utilisateurs dans l’appropriation et l’utilisation des solutions mises à disposition Accompagner les utilisateurs dans l’interprétation et la valorisation des données mises à disposition Garantir la cohérence des jalons et la tenue des échéances de la feuille de route Data et IA. Assurer un rôle de référent(e) sur les bonnes pratiques Data/IA : modèles IA, entraînement et FinOps. Votre futur environnement technique & fonctionnel : · IA / Data : Data engineering, IA Générative, Machine Learning,
Offre d'emploi
Scrum Master Data Senior
Tritux France
Publiée le
Agile Scrum
Azure Data Factory
Azure DevOps
3 ans
54k-58k €
550-580 €
Paris, France
Objectifs de la mission : Uniformiser les pratiques Agile sur l’ensemble du périmètreStabiliser et sécuriser les cycles de sprint Améliorer la qualité du backlog et des User Stories · Structurer les processus de production, d’arbitrage et de communication Mettre en place un pilotage clair : capacité, consommés, KPIs, roadmap Assurer la synchronisation et la gestion des dépendances inter squads Périmètre d’intervention Animation des rituels : daily, refinements, poker plannings, sprint plannings, reviews, rétros Vision prévisionnelle de la capacité et du backlog sur les prochains sprints · Construction d’une roadmap consolidée Amélioration de la qualité des US : découpage, prérequis, critères d’acceptation Mise en place / harmonisation de la Definition of Ready et Definition of Done Alignement des pratiques entre les équipes · Production des release notes et mise en place des KPIs de delivery Standardisation des checklists de livraison / reprise de données (UAT, OAT, PRD) · Analyse de charge, détection d’anomalies, gestion proactive des risques · Mise en place d’un reporting clair et régulier vers la Data Factory.
Mission freelance
Chef de Projet et Change Manager – Cash Management, Trade and Payments
CONSULTING
Publiée le
Cash Management
8 mois
400-650 €
Paris, France
Objectif de la mission Dans le cadre de projets stratégiques à forte visibilité, la mission consiste à assurer le pilotage global des initiatives confiées, depuis leur cadrage jusqu’à leur déploiement opérationnel. Le consultant interviendra comme interlocuteur clé auprès de parties prenantes de haut niveau (Direction, COMEX, CODIR), avec un rôle central dans la coordination, la communication et l’accompagnement au changement. La mission implique une forte capacité à structurer, aligner et faire avancer des sujets complexes, dans des environnements exigeants et en transformation. Prestations attendues Le consultant sera amené à intervenir sur les volets suivants : • Pilotage de projets Structuration et cadrage des projets (planning, gouvernance, livrables) Suivi de l’avancement, gestion des risques et des dépendances Coordination des parties prenantes internes et externes Reporting régulier auprès des instances de gouvernance • Animation d’ateliers Préparation, organisation et animation d’ateliers de travail Recueil des besoins métiers et facilitation des échanges Formalisation des résultats et restitution synthétique • Conduite du changement Définition et mise en œuvre de stratégies d’accompagnement au changement Identification des impacts organisationnels et métiers Élaboration de plans de communication et de formation Suivi de l’adhésion et gestion des résistances • Préparation et animation de réunions Organisation et animation de comités (COPIL, COMEX, CODIR, STEERCO) Production de supports de présentation à fort enjeu Capacité à porter des messages clairs et structurés auprès d’interlocuteurs seniors • Production de livrables Rédaction de supports de pilotage et de communication (points projet, comités, notes de synthèse) Élaboration de présentations exécutives à destination des instances de direction Garantie de la qualité, de la clarté et de l’impact des livrables
Mission freelance
Ingénieur Système N3 - Linux & Perl
MEETSHAKE
Publiée le
Bash
Kubernetes
Linux
1 an
100-550 €
Paris, France
Dans un environnement de production critique lié à la gestion d'équipements réseaux (accès et routage), vous intervenez en tant que Référent Système N3 . Votre mission est de piloter l'évolution et la sécurisation des infrastructures de supervision. Vos missions principales s'articulent autour du Build et du Run : Pilotage de Mini-Projets (Build) : Concevoir et réaliser les stratégies de migration pour traiter l'obsolescence système (authentification, logs, bastions d'accès). Ingénierie de Migration : Mettre en œuvre des solutions techniques pour garantir la continuité de service lors des bascules (double run, switch d'IP, migration de comptes). Maintien en Condition Opérationnelle (Run) : Assurer le support de niveau 3 et l'évolution des services critiques ( Rsyslog, Tacacs, OpenSSH ). Automatisation & Scripting : Maintenir et adapter l'outillage existant (principalement en Perl et Bash ).
Mission freelance
CDP Infrastructure (NF)
SKILL EXPERT
Publiée le
Master Data Management (MDM)
1 an
400 €
Paris, France
Descriptif de la mission : En tant que cheffe de projet IT, piloter plusieurs projets techniques et applicatifs, depuis la phase d’étude jusqu’au déploiement en production, dans un contexte ministériel complexe et multisite. La mission couvre la gestion complète du cycle de vie projet, l’animation des parties prenantes, et le pilotage des équipes techniques internes et externes Contexte et expression de besoin client : - Gestion de projet des postes iMac OS de la DICOM avec l'infrastructure MLDM , gestion des patch de sécurité et de l'antivirus des poste iMAC OS. - Gestion de la migration de l'outil de chiffrement Cryhod vers Bitlocker - Mise en place de l'outil de sécurisation des poste de travail WDAC sur les postes Windows 11 - Mise en place des mot de passe BIOS sur tous les postes du ministère de la justice - Compte rendu d'activité Hebdo et recap mensuel
Mission freelance
Lead Data Architecte (Convergence & MDM)
Pickmeup
Publiée le
.NET
Master Data Management (MDM)
PostgreSQL
3 mois
800-950 €
Paris, France
Le groupe est un acteur majeur de l'AdTech qui a récemment finalisé l'acquisition de deux entités stratégiques en 2025. L'enjeu actuel est de piloter la convergence technique et fonctionnelle de trois écosystèmes distincts vers une plateforme unique et cohérente. Le défi ne réside pas seulement dans la migration technique, mais dans l'unification de périmètres fonctionnels fragmentés pour couvrir l'intégralité du cycle de vie de l'investissement média Missions principales Sous la responsabilité du CTO, vous serez l'architecte et le garant de la nouvelle structure de données unifiée du groupe. Vos missions se décomposent en deux phases : 1. Conception de l'Architecture Cible (Vision Globale) Modélisation Unifiée : Concevoir un modèle de données cible couvrant l'ensemble du cycle média : budget, planning, achat, activation, facturation et audit. Stratégie d'Identité & Taxonomie : Définir une stratégie d'ID partagée et des taxonomies standardisées pour réconcilier trois systèmes aux structures et granularités hétérogènes. Modèle de Configurabilité : Concevoir un système permettant une haute personnalisation par client (hiérarchies spécifiques, règles métiers, champs optionnels) tout en préservant un cœur de données stable et robuste. Multi-tenant & Connectivité : Évaluer et choisir les meilleurs patterns d'isolation des données (tenancy) et définir les modèles d'échange avec les écosystèmes externes (DSPs, ERP, plateformes d'activation). 2. Mise en œuvre Opérationnelle (Focus Phase 1) Implémentation Hands-on : Contrairement à un rôle de pur conseil, vous participerez activement au développement de la première brique logicielle. Focus Media Planning : Piloter l'implémentation prioritaire du module "Planning" et des entités MDM associées dans un délai de 2 mois. Convergence MDM : Orchestrer la transition entre le Master Data Management (MDM) actuel de la maison mère (Snowflake/Python) et les systèmes acquis (SQL Server / .NET).
Offre d'emploi
Ingénieur SRE – Environnement Windows (H/F)
QODEXIA
Publiée le
Ansible
Bash
Kubernetes
10 jours
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Nous sommes à la recherche de deux Ingénieur SRE – Environnement Windows | Secteur Bancaire | Paris
Offre premium
Offre d'emploi
Data Engineer Python / Azure Sénior
VISIAN
Publiée le
Azure Data Factory
Azure DevOps
Python
1 an
Paris, France
Contexte La Direction des Systèmes d’Information recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l’exploitation des données. Missions Mener les projets d’intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d’optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger (Anglais) pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d’optimiser les architectures Contribuer à l’amélioration de la gouvernance sur la protection et la confidentialité des données Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l’entreprise
Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580
Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark
1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
Offre d'emploi
Business Analyst Data (Assurance Vie / Banque Patrimoniale) H/F
Aleysia
Publiée le
Business Analyst
Data analysis
SQL
12 mois
35k-45k €
130-490 €
Paris, France
Si la Data est pour toi une passion plus qu'une compétence, rejoins notre univers technique qui t'attend de pied ferme avec ce poste de Business Analyst Data (Assurance Vie / Banque Patrimoniale) ! 🚀 Ton challenge si tu l’acceptes : • Recueillir, analyser et formaliser les besoins métiers (finance, risques, conformité…) • Animer des ateliers avec les équipes métier et cadrer les besoins • Concevoir et maintenir les modèles de données • Participer à la mise en place des flux data (ETL / DWH / Data Lake) • Assurer la recette fonctionnelle et garantir la qualité des données • Suivre les anomalies et assurer la cohérence des données • Travailler en méthodologie Agile/Scrum avec les équipes IT et Data
Offre d'emploi
Data Analyst SAS - Anglais courant
Synchrone recrutement
Publiée le
Dataiku
Dremio
SAS
40k-60k €
Paris, France
L'équipe est chargée du pilotage mensuel du risque via la mise à jour du datamart risque et des reportings associés. Pour cela, un RUN mensuel, actuellement composé de programmes SAS, devra perdurer en parallèle des développements induits par les nouveaux usages data (nouvelles expositions de données, nouveaux outils de préparation tels que DREMIO-DATAIKU, et utilisation de Power BI Report Server). Cette mission a pour objectif : · Développer des flux Dataiku et des rapports Power BI afin de contribuer au pilotage mensuel du risque. · Assurer le transfert et la réécriture des programmes SAS existants vers Dataiku, en tenant compte de la complexité de certains codes et des logiques métier sous-jacentes. · Documenter la construction et le fonctionnement des mises en place pour garantir la pérennité et la maintenabilité des solutions. L’équipe tient à cœur de développer des suivis automatisés et optimisés. Une intégration au RUN mensuel ainsi qu’une participation aux demandes d’évolutions sur des suivis déjà existants pourront également être réalisées, dans le but de s’imprégner du fonctionnement global de l’équipe. Anglais courant requis ! Prestations demandées : Comprendre le fonctionnement actuel du datamart risque composé de programmes SAS. Dupliquer les RUN actuels sur les nouveaux outils DREMIO et DATAIKU Mise en place d’un rapport Power BI version report server permettant le pilotage mensuel Participation au double run mensuel
Offre d'emploi
Data Engineer Teradata et Big Data H/F
CONSORT GROUP
Publiée le
Big Data
Teradata
55k-62k €
75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de ConsortIA , sont des acteurs de référence de la Data, du Développement Digital et de l'Ingénierie Média. En combinant ces expertises, nous concevons des systèmes d’information augmentés, intégrés, agiles et sécurisés, au service de la performance et de la transformation numérique de nos clients. Data Engineer Teradata et Big Data H/F C’est votre mission Vous êtes passionné·e par [XXX] ? Ce poste est fait pour vous. En tant que Data Engineer Teradata et Big Data , vous êtes responsable du [XXX] et [XXX] de notre écosystème : Côté build : Concevoir et développer des solutions DataMart / Datalab sur environnement Teradata Mettre en œuvre les chaînes ETL via BTEQ / TPT Développer des traitements de collecte, transformation et stockage de données sur plateforme Big Data Construire des agrégats et indicateurs (scores, datamarts) à destination des équipes Data Science Développer des pipelines de données sous environnements Spark / Hadoop / HDFS Participer à la modélisation et au design des solutions de données (bonnes pratiques Data Engineering) Industrialiser les traitements dans un contexte Unix / SQL / Teradata Utiliser les outils collaboratifs (Git, Jira, Confluence, MEGA) dans un cadre Agile Côté run : Assurer le support et la maintenance des chaînes de production Data Surveiller et optimiser les traitements batch (ordonnancement via Control-M ) Gérer les incidents de production sur les flux Teradata / Big Data Analyser et corriger les anomalies sur les traitements SQL / ETL Garantir la disponibilité et la performance des jobs data Participer à l’amélioration continue des pipelines (fiabilisation, optimisation) Assurer le support aux équipes Data Science sur les environnements de données Maintenir la documentation technique (Confluence, MEGA) Suivre les bonnes pratiques d’exploitation dans un contexte DevOps C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements DevOps exigeants. Vous aimez concevoir et industrialiser des pipelines de données robustes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Environnement Linux / Unix dans un contexte Agile et DevOps Maîtrise des technologies Data : Teradata, SQL, BTEQ, TPT Écosystème Big Data : Spark, Hadoop, HDFS, Python Outils d’exploitation et d’ordonnancement : Control-M Outils collaboratifs : Git, Jira, Confluence, MEGA Connaissance de solutions ETL / Data : Datastage Bonne compréhension des architectures de données et pipelines industrialisés C’est votre manière de faire équipe : Rigueur et sens de la qualité dans les traitements de données Esprit d’analyse et capacité de résolution de problèmes complexes Collaboration forte avec équipes Data, IT et métier Autonomie et sens des responsabilités en environnement de production Communication claire et esprit d’équipe Adaptabilité dans des environnements techniques évolutifs (DevOps / Big Data) Culture de l’amélioration continue et du delivery fiable C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Paris Contrat : CDI Télétravail : Hybride Salaire : De 55K € à 62K € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Business Analyst DATA/ AMOA F/H - Marketing (H/F)
█ █ █ █ █ █ █
Publiée le
Big Data
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- VOYANT GRATUIT SÉRIEUX EN FRANCE +33 7 54 05 54 85
- VRAI MEDIUM VOYANT PUISSANT GRATUIT +229 45723596
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- Réforme de l’assiette sociale
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Mission à 600 km de chez moi - Frais de double résidence
316 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois