Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 711 résultats.
Mission freelance
Développeur Big Data
Codezys
Publiée le
Big Data
Cloudera
Data Lake
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Le client, dans le cadre du développement et de la maintenance de sa plateforme Big Data, recherche un Développeur Big Data expérimenté (H/F) avec au moins 5 ans d’expérience en environnement Data. La mission se déroule au sein de l’équipe Big Data, chargée de l’alimentation, de l’évolution et de l’optimisation du Data Lake sous Cloudera Hadoop. L’objectif principal est de concevoir, faire évoluer et maintenir les traitements d’alimentation pour assurer la qualité, la performance et la maintenabilité des solutions. Le consultant intervient dans un contexte de production exigeant, avec de forts enjeux de fiabilité et de respect des délais. Missions principales : Développement & évolution du Data Lake : Gérer les évolutions des flux et des données à intégrer Faire évoluer les développements existants d’alimentation Maintenir les traitements d’ingestion et de transformation Concevoir des extractions de données pour répondre aux besoins métiers Stack technique : Cloudera Hadoop, Hive, Impala, Spark, Python, SQL, Shell, Linux, VBA, Jupyter Expertise technique & structuration : Rédaction des spécifications techniques Fourniture de requêtes SQL de référence Revue de code Structuration et pilotage via JIRA Documentation des processus et accompagnement des utilisateurs Encadrement de profils juniors (alternants, stagiaires) Performance & optimisation : Optimiser les traitements et requêtes Améliorer la performance et l’exploitabilité Contribuer à la maintenabilité globale Réaliser du reverse engineering dans une architecture héritée complexe Support & accompagnement : Assurer le support de niveau 2 Faire respecter les bonnes pratiques Communiquer clairement avec différents interlocuteurs (développeurs, utilisateurs, clients) Gouvernance & conformité : Veiller au respect des modèles de données Collaborer avec la Direction Technique et la Gouvernance de la Donnée pour faire évoluer les standards
Mission freelance
Data Engineer H/F
OUICODING
Publiée le
1 mois
420-500 €
Rennes, Bretagne
Missions principales -Industrialiser et optimiser les traitements de données en s'appuyant sur Dataiku (scénarios, plugins, recettes avancées...). -Mettre en place une architecture data fiable et optimisée, principalement sur des solutions AWS (S3, Redshift, le Common Data Hub Engie). -Développer des solutions techniques de collecte de la donnée via des API. -Modéliser les données nécessaires aux analyses et aux usages métiers. -Assurer la qualité, la sécurité et le monitoring des flux de données. -Collaborer avec la Data Analyst pour garantir la mise à disposition des données pertinentes. -Participer à la définition des bonnes pratiques Data et à leur diffusion au sein de l'entreprise. -Contribuer à la documentation technique et à l'amélioration continue des environnements. -Assurer une veille technologique sur les solutions de stockage et traitement des données
Offre d'emploi
Responsable Data Product (H/F)
█ █ █ █ █ █ █
Publiée le
60k-80k €
Lavau-sur-Loire, Pays de la Loire
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Développeur Big Data
Codezys
Publiée le
JIRA
Linux
Python
24 mois
330-400 €
Lyon, Auvergne-Rhône-Alpes
Organisation Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans la gestion d'une plateforme Hadoop. Objectif de la mission Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs. Description de la mission Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de : Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d’éventuels alternants ou stagiaires. Mettre en place des processus d'extraction à partir des données. Assurer le support de niveau 2. Faire respecter les consignes d’utilisation auprès des utilisateurs. Garantir le respect des délais de livraison dans un environnement exigeant. Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme. Il veillera également à respecter l’utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données. Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d’intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
Mission freelance
245891/Data engineer Spark Nantes
WorldWide People
Publiée le
Apache Spark
12 mois
Nantes, Pays de la Loire
Data engineer Spark Nantes La Squad Socles-Data a pour missions : • Le MCO de la plateforme Data Hub actuelle (DH V1). • La co-construction des nouvelles offres Data managées du nouveau Data Hub (DH V2) avec l’IT Groupe : o Prototypes, o Bêta-tests, o Pilotes, o Instanciation, o Homologation…etc. • La définition des normes, bonnes pratiques, guidelines pour simplifier/accélérer les futurs portages applicatifs sur Data-Hub V2. • Gouvernance opérationnelle. • La migration des Uses-Cases existants vers le Data-Hub V2 dans le Cloud privé BNPParibas. • Facilitage de l’usage des services Data. • Assurance du support et l’accompagnement des usagers des socles-Data. • Fournissement de l’expertise. Objectifs et livrables Les tâches sont: Data ingénieur : • Codage et testage des composants logiciels. • Formalisation des cas d’usages. • Conception et mise en œuvre des flux d’intégration de données. • Optimisation de la performance et la qualité logicielle. • Apport du support technique. • Bonne maitrise de l’écosystème Data / Java / SQL / Cloud. • Notions dans d’autres langages de programmation (Python, Scala) et connaître le fonctionnement des bases de données (SQL, NoSQL). Technologie Langage Niveau Starburst (Trino) SQL Moyen Astronomer Airflow Python Moyen Spark 3 Java (Scala selon vos applications) Avancé Cloud (Kubernetes, COS(S3), Vault) Bas DevOps (Gitlab, Jenkins, ArgoCD, Ansible) Go, Yaml Bas Log As a Service (elk) Moyen Java Moyen SQL Moyen Python Moyen Scala (selon vos applications) Moyen Compétences demandées Compétences Niveau de compétence SCALA Confirmé Apache Airflow Confirmé APACHE Confirmé
Offre d'emploi
Expert Collibra - Senior Data Management - Data Governance Lead Collibra ; MDM ; DAMA / DCAM
Inventiv IT
Publiée le
Collibra
Data governance
IA
6 mois
60k-70k €
600-700 €
Île-de-France, France
Data Management Lead - Chef de projet - Senior Data Management / Data Governance Lead Collibra ; MDM ; DAMA / DCAM - réglementations Data & IA (IA Act) Conduite de programme Data complexe – environnement grand groupe. 10+ ans en Data Management / Data Governance ET GESTION DE PROJETS COMPLEXES Pilotage de programmes data transverses Contexte multi-métiers, réglementé Data Management & Gouvernance Gouvernance de la donnée (DAMA / DCAM) Data catalog, glossaire, dictionnaire de données Données de référence (MDM), qualité de la donnée Cycle de vie, linéage, classification des données Outil clé : Collibra (expert) Certification DAMA appréciée – pas nécessaire
Mission freelance
Proxy Product Owner Data ( Finance)
adbi
Publiée le
Product management
6 mois
530-630 €
Île-de-France, France
Langue requise : Anglais courant obligatoire Environnement : Transformation Finance et Data – contexte international1. Contexte de la mission Dans le cadre d’un programme de transformation de la fonction Finance, le Proxy Product Owner Data intervient au sein de la fonction Data afin d’accompagner les équipes Finance dans leurs initiatives de transformation. Le programme couvre notamment l’automatisation des processus ainsi que les processus clés tels que Procure-to-Pay (P2P) et Order-to-Cash (O2C). Le rôle consiste à garantir que toutes les initiatives de transformation comportant une dimension Data sont correctement identifiées, structurées et alignées avec les standards, les architectures et les frameworks de delivery Data de l’entreprise. Ce poste est transverse et nécessite une collaboration étroite avec les équipes Finance, IT et Data afin d’assurer la livraison efficace de solutions orientées Data. 2. Mission principale Le Proxy Product Owner Data agit comme référent Data pour les projets de transformation Finance en assurant que : Les projets ayant un impact Data sont correctement identifiés Les initiatives sont cadrées, structurées et priorisées Les solutions respectent les standards d’architecture et de gouvernance Data Les projets sont livrés efficacement avec le bon niveau de coordination et de gouvernance 3. Responsabilités principales3.1 Identification et priorisation des initiatives Responsabilités : Identifier les initiatives Finance ayant un impact sur la Data Évaluer la valeur métier et la faisabilité Assurer l’alignement avec les priorités Data Contribuer à la gestion et à la priorisation du backlog Livrables : Portefeuille des initiatives Data Finance Framework de priorisation Documentation des impacts Data Alimentation du backlog 3.2 Recueil des besoins et validation des solutions Responsabilités : Traduire les besoins métiers Finance en exigences fonctionnelles et techniques Assurer l’alignement avec les standards d’architecture Data Valider les solutions et les modèles de données Livrables : Documentation des besoins métier et Data Spécifications fonctionnelles Documentation des flux de données Rapports de validation des solutions 3.3 Expertise Finance et support à la transformation Responsabilités : Apporter une expertise sur les processus Finance Accompagner les initiatives de transformation sur : Procure-to-Pay (P2P) Order-to-Cash (O2C) Automatisation des processus Finance Garantir l’adéquation des solutions Data avec les besoins métier Livrables : Cartographie des processus Définition des cas d’usage Recommandations d’amélioration 3.4 Support à l’automatisation des processus Responsabilités : Participer à la mise en œuvre des solutions d’automatisation Contribuer aux cas d’usage d’automatisation (ex : Dataiku ou équivalent) Garantir la qualité et l’intégration des données Livrables : Backlog des cas d’automatisation Spécifications des solutions Documentation des pipelines et intégrations 3.5 Coordination et suivi des projets Responsabilités : Coordonner les équipes Finance, IT et Data Suivre l’avancement des projets Identifier et résoudre les blocages Assurer le reporting auprès des parties prenantes Livrables : Tableaux de bord projets Rapports d’avancement Suivi des risques et dépendances Reporting aux stakeholders 3.6 Gouvernance et qualité des données Responsabilités : Assurer le respect des standards et de la gouvernance Data Appliquer les bonnes pratiques en matière d’architecture Data Garantir la qualité, la sécurité et l’intégrité des données Livrables : Rapports de conformité Documentation de gouvernance Définition des contrôles de qualité des données 3.7 Communication et gestion des parties prenantes Responsabilités : Être le point de contact principal sur les sujets Data pour la transformation Finance Fournir des reportings réguliers Faciliter la prise de décision et l’alignement des équipes Livrables : Rapports d’avancement Supports de communication Présentations pour les comités de pilotage
Offre d'emploi
Data Analyst Power BI
UCASE CONSULTING
Publiée le
Data visualisation
DAX
Microsoft Power BI
1 an
55k-60k €
500-600 €
Île-de-France, France
Dans le cadre du renforcement de l'équipe Data de notre client, nous recherchons un(e) Data Analyst expérimenté(e) pour intervenir sur des environnements cloud et accompagner les métiers dans la valorisation de leurs données. Missions En collaboration avec les équipes Data et les équipes métiers, vous serez amené(e) à : Recueillir et analyser les besoins métiers Concevoir et maintenir des tableaux de bord et reportings sous Power BI Accompagner les utilisateurs dans la prise en main des outils décisionnels
Mission freelance
Développeur Power BI (RH Data) - Expert
Atlas Connect
Publiée le
Analyse financière
API
Data analysis
2 mois
450-560 €
Île-de-France, France
Responsabilités & Livrables 1. Modélisation & Structuration des Données (Back-End) Ingestion des données : paramétrer les flux trimestriels depuis le SIRH (API, SFTP, exports plats). Data Preparation (Power Query) : nettoyer, transformer et normaliser les données issues des pays (formats de date, doublons, jointures sur Employee ID). Modélisation (DAX) : créer les mesures et indicateurs calculés complexes (taux de complétion, scores moyens pondérés, évolution N vs N-1). 2. Visualisation & Design (Front-End) Création de dashboards interactifs respectant la charte graphique existante. UX Reporting : faciliter la navigation par pays, département ou niveau hiérarchique. Sécurité (RLS) : implémenter la sécurité au niveau des lignes pour limiter l’accès aux données selon le périmètre géographique. 3. Optimisation & Performance Audit de l’existant : identifier les goulots techniques ralentissant les livraisons. Automatisation : minimiser les interventions manuelles lors des mises à jour trimestrielles. 👤 Profil Recherché Expertise Power BI : maîtrise avancée de Power Query (M) et DAX. Expérience Data RH : connaissance des indicateurs de performance (Talent Management) appréciée pour comprendre les enjeux métier. Langue : anglais technique requis (modèle de données et documentation). Soft Skills : Rapidité d’exécution : capacité à livrer des prototypes fonctionnels rapidement (méthode agile). Rigueur : précision cruciale, une erreur de calcul peut avoir un impact important sur les décisions RH.
Mission freelance
DATA MESH PLATFORM MANAGER SENIOR F/H
SMARTPOINT
Publiée le
AWS Cloud
Azure
CI/CD
12 mois
100-600 €
Île-de-France, France
Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform – GDP) comme un produit interne, en garantissant : Sa livraison technique Son adoption à l’échelle de l’entreprise Son excellence opérationnelle Son amélioration continue RESPONSABILITÉS CLÉSConstruction et Livraison de la Plateforme (Responsabilité principale)1. Responsabilités Concevoir et implémenter l’architecture de la plateforme Data Self-Service Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité, accès self-service) Définir et faire respecter les standards techniques et les patterns d’architecture Garantir la scalabilité, la performance et la sécurité Prendre des décisions techniques hands-on et valider les solutions 2. Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme Architecture Cloud et Infrastructure3. Responsabilités Piloter la conception et l’exploitation d’architectures cloud et hybrides avec le Group Data Architect Coordonner avec l’équipe Group Data Delivery l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Piloter l’automatisation et l’Infrastructure as Code Garantir les exigences de sécurité et de conformité 4. Livrables attendus Blueprint d’architecture cloud (avec le Group Data Architect) Framework de sécurité et de gestion des accès Pilotage Delivery & Exécution5. Responsabilités Être responsable du cycle de vie de livraison de la plateforme Définir le backlog et le processus de priorisation Gérer les releases et les déploiements en production Suivre la performance et la fiabilité Gérer les risques et incidents techniques 6. Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et gestion des versions Dashboards de suivi delivery Indicateurs SLA / métriques de fiabilité Déploiement & Adoption par les Domaines7. Responsabilités Déployer la plateforme dans les différents domaines métiers Permettre aux équipes domaine de construire leurs data products Déployer le modèle opérationnel Data Mesh Accompagner l’onboarding et l’adoption Résoudre les problématiques d’adoption opérationnelle 8. Livrables attendus Framework et processus d’onboarding des domaines Guidelines du cycle de vie des data products Playbooks d’accompagnement des domaines Indicateurs d’adoption et d’usage Supports de formation et documentation d’onboarding Product Management (orienté usage) & Amélioration Continue9. Responsabilités Recueillir les besoins utilisateurs et exigences plateforme Définir la vision produit et la roadmap Mesurer l’usage et la création de valeur Améliorer l’expérience développeur et utilisateur 10. Livrables attendus Vision produit et proposition de valeur KPIs plateforme et métriques d’adoption Boucles de feedback utilisateur et backlog d’amélioration Roadmap d’évolution de la plateforme Documentation, Standardisation & Gouvernance11. Responsabilités Documenter les capacités et processus de la plateforme Garantir la conformité avec la gouvernance fédérée des données du Groupe 12. Livrables attendus Référentiel documentaire de la plateforme Standards techniques et guides d’implémentation Framework de gouvernance et conformité Playbooks de bonnes pratiques Communication Opérationnelle & Reporting Exécutif13. Responsabilités Communiquer sur l’avancement et l’impact de la plateforme Fournir un reporting de niveau exécutif Assurer l’alignement des parties prenantes 14. Livrables attendus Dashboard exécutif du projet Dashboards de performance plateforme Présentations en comité de pilotage Suivi des décisions, risques et incidents Promotion Interne & Évangélisation15. Responsabilités Promouvoir la valeur de la plateforme dans l’organisation Soutenir les initiatives d’adoption interne Construire une communauté plateforme 16. Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations plateforme et portfolio de cas d’usage Expérience requise Minimum 15 ans d’expérience en data platform, data engineering ou architecture Expérience prouvée dans la construction et livraison de plateformes data en production Forte expérience hands-on en delivery technique Expérience en platform engineering ou data engineering avancé Expérience en environnement grand groupe ou multi-entités Expérience pratique du Data Mesh obligatoire Compétences techniquesArchitecture & Engineering Architecture data distribuée Conception de systèmes distribués Infrastructure as Code Pratiques DevOps / DataOps / CI/CD Ingénierie performance et scalabilité Cloud & Infrastructure Expertise avancée AWS et Azure Architectures hybrides et on-premise Sécurité et gouvernance cloud Plateforme Data Data products & gestion du cycle de vie Pipelines et orchestration Gestion des métadonnées et catalogues Frameworks de gouvernance data Observabilité data Product & Delivery Approche produit appliquée aux plateformes techniques Gestion roadmap & backlog Méthodologies Agile Développement orienté valeur Soft Skills critiques Leadership technique et opérationnel fort Orientation exécution et delivery Capacité à intervenir de manière hands-on dans des environnements complexes Excellente communication transverse Sens fort de la responsabilité Esprit analytique et pragmatique Capacité d’influence sans autorité hiérarchique directe Vision stratégique avec focus opérationnel Gestion des parties prenantes au niveau exécutif et opérationnel Anglais courant obligatoire (écrit et oral) Indicateurs de succès Plateforme livrée et opérationnelle en production Adoption par les domaines métiers Nombre et qualité des data products déployés Fiabilité et performance de la plateforme Satisfaction et usage des utilisateurs Réduction du time-to-market des cas d’usage data
Offre d'emploi
Tech Lead Full-Stack / Data & Cloud (F/H)
CELAD
Publiée le
45k-51k €
Toulouse, Occitanie
Tech Lead Full-Stack / Data & Cloud (F/H) A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Toulouse Vous aimez autant coder que prendre de la hauteur sur l’architecture et la qualité logicielle ? Vous êtes à l’aise pour accompagner une équipe technique tout en mettant en place des stratégies de tests solides et durables ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e un.e Tech Lead Full-Stack pour intervenir chez un de nos clients, dans le secteur développement applicatif, data et cloud. Contexte : Vous rejoignez une équipe de développement qui conçoit et fait évoluer des applications à forte composante data , dans un environnement technologique moderne combinant Python, React et AWS . Votre rôle sera central : porter la vision technique , accompagner les développeurs et veiller à la qualité globale des livrables , notamment à travers la mise en place de stratégies de tests efficaces . L’objectif : construire des solutions robustes, performantes et maintenables dans le temps . Voici un aperçu détaillé de vos missions : Définir et porter la vision technique du produit Encadrer techniquement l’équipe de développement (code review, bonnes pratiques, pair programming) Participer activement au développement full-stack (Python / React) Contribuer aux choix d’ architecture applicative et data Optimiser les performances côté back-end et base de données Concevoir et faire évoluer les architectures cloud sur AWS Définir et structurer une stratégie de tests complète (tests unitaires, intégration, automatisation…) Mettre en place des pratiques favorisant la qualité et la fiabilité du code Participer aux choix technologiques et à l’évolution de la roadmap technique
Mission freelance
Data Analyst Lead – Gouvernance & Conception Data
Comet
Publiée le
Data Strategy
Databricks
Microsoft Power BI
300 jours
550-580 €
Châtillon, Île-de-France
Data Analyst Lead – Gouvernance & Conception Data Objectif global Renforcer l’expertise en analyse, conception et gouvernance des données au sein d’un DataLab, dans un contexte grande distribution multi-enseignes et multi-métiers. Livrables : - Expertise analytique et conception de solutions data - Contribution à la structuration des KPI métiers - Animation de la communauté Data Analyst - Participation à la Data Authority - Contribution au modèle de données commun Contexte de la mission : - Mission au sein d’un DataLab, rattachée à l’équipe Gouvernance des données. Environnement : - Grande Distribution - Multi-enseignes - Multi-métiers Enjeux forts de performance, qualité des données, modélisation et usages analytiques à grande échelle ⚠️ La connaissance opérationnelle de la Grande Distribution est impérative. Objectifs - Apporter une expertise avancée en data analyse et en conception de solutions data - Contribuer à la montée en compétence des Data Analysts - Accompagner les équipes produits et projets sur des problématiques analytiques complexes - Animer la communauté Data - Coanimer la Data Authority et les ateliers de gouvernance Missions principales : - Expertise en analyse de données et conception de solutions orientées data - Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions) - Structuration et alignement des KPI métiers - Animation de la communauté Data Analyst (ateliers, bonnes pratiques, REX) - Contribution et évolution du modèle de données commun - Coanimation des instances de gouvernance Data Compétences techniques attendues : Impératif : Connaissance confirmée de la Grande Distribution Enjeux business KPI clés : ventes, marge, stock, approvisionnement, performance magasin Usages métiers de la donnée Important Modélisation des données (confirmé) Analyse de données (confirmé) Conception de solutions data (confirmé) Stack & Environnement technique Big Data : - SQL - Databricks - Scala - Python Environnement Azure BI / Reporting : - Power BI - MicroStrategy Modélisation : - PowerDesigner Gouvernance & Qualité : - DataGalaxy - SODA (Data Quality / Observability) Méthodologie & outils : - SAFe (Agilité à l’échelle) - Jira Profil recherché - Data Analyst Senior / Lead - Forte capacité à challenger les solutions - Vision transverse et structurante - Capacité à fédérer une communauté - Aisance en animation d’ateliers - Posture d’expert référent
Offre d'emploi
DATA MANAGER EXPERT SNOWFLAKE
BEEZEN
Publiée le
Snowflake
3 mois
40k-76k €
510-600 €
Île-de-France, France
SQL & data analysis (expert) Data quality rules, controls & reconciliation (expert) Snowflake (expert) Technical data documentation & lineage (expert) 1) Cadrage & design des Data Products (Customer) Contribuer au cadrage et à la conception des data products alignés aux besoins métiers. Apporter une compréhension fonctionnelle des processus Customer . Challenger les choix de modélisation (complexité, faisabilité, impacts cross-domain). Assurer l’alignement avec la target data architecture et les standards dès la phase de design. 2) Standards & gouvernance Data Définir / maintenir / promouvoir les standards de data management (modélisation, conventions, documentation). Produire et faire appliquer des guidelines/patterns réutilisables. Garantir l’adoption des standards sur le domaine Customer . Être garant(e) de la qualité de la documentation et des pratiques de gouvernance. 3) Urbanisation transverse & qualité long terme Assurer la cohérence et l’ interopérabilité entre domaines data. Identifier et réduire doublons / recouvrements / fragmentation autour des concepts Customer. Proposer des recommandations transverses favorisant harmonisation, réutilisation et robustesse.
Offre d'emploi
Data engineer Qlik / Power BI H/F
VIVERIS
Publiée le
45k-55k €
France
Contexte de la mission : Viveris accompagne un grand groupe du secteur agroalimentaire dans la structuration et la valorisation de ses données, notamment dans le cadre de la migration de ses outils décisionnels de Qlik vers Power BI. Au sein d'un environnement regroupant plus de 3 000 utilisateurs et près de 500 applications, vous intégrerez le pôle Data & Reporting. Votre mission consistera à accompagner le Technical Leader dans la gestion et la transformation des données, avec un rôle clé dans la conduite et la réussite de la transition vers Power BI. Responsabilités : * Garantir la qualité et l'intégrité des données tout au long du cycle de développement ; * Surveiller et gérer les incidents ; * Participer aux revues de code et à la validation des Pull Requests avec les autres Data Engineers ; * Automatiser l'infrastructure data à l'aide de Terraform (Infrastructure as Code) ; * Documenter les architectures, les pipelines et les bonnes pratiques ; * Se tenir informé des tendances technologiques et partager ces connaissances avec l'équipe lors de sessions dédiées.
Offre d'emploi
Data Scientist MLOps (H/F)
STORM GROUP
Publiée le
Apache Airflow
BigQuery
MLOps
3 ans
45k-55k €
400-500 €
Île-de-France, France
Missions : • contribution aux projets décisionnels - Big data • participation et animation de groupes de travail avec les utilisateurs et les informatiques • collecte des besoins auprès des métiers • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs
Mission freelance
Product Owner CRM – Data Client BtoB & Prospection
Deodis
Publiée le
Salesforce
1 an
550-580 €
Île-de-France, France
Le Product Owner CRM – Data Client BtoB & Prospection chez TF1 Publicité est responsable de la gestion et de l’évolution du référentiel client et des processus de prospection au sein du CRM Salesforce. Intégré à la Direction des Technologies, il définit la vision produit, pilote la roadmap et coordonne les développements afin d’améliorer les outils utilisés par les équipes commerciales. En collaboration avec les métiers et les équipes techniques, il recueille les besoins, priorise le backlog, garantit la cohérence avec les autres systèmes du SI et accompagne le déploiement des nouvelles fonctionnalités pour optimiser la gestion de la data client B2B et soutenir la performance commerciale.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1711 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois