L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 232 résultats.
Mission freelance
Data Scientist – Forecasting / Snowflake
CHOURAK CONSULTING
Publiée le
Data science
Machine Learning
Python
1 mois
400-500 €
Lille, Hauts-de-France
Nous recherchons un Data Scientist pour intervenir sur une mission autour d’un sujet R&D en prévision des ventes , au sein d’un acteur du secteur retail. L’objectif de la mission est d’améliorer les stocks cibles en magasin grâce à la mise en place d’un modèle de prévision performant. Contexte de la mission Dans un environnement data existant reposant notamment sur Snowflake , vous interviendrez sur la mise en place des bases data et d’un système d’algorithmes de prévision des ventes . La mission se fera en collaboration étroite avec les équipes métiers , avec une approche itérative orientée résultats. Missions principales Mettre en place les prérequis data nécessaires aux travaux de modélisation. Développer un modèle de prévision des ventes . Exploiter et analyser les données disponibles dans Snowflake . Construire et tester des algorithmes de forecasting . Travailler en interaction directe avec les équipes métiers. Adopter une démarche R&D / POC avec itérations rapides .
Offre d'emploi
Data Scientist (F/H) (H/F)
█ █ █ █ █ █ █
Publiée le
Python
Puteaux, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
Offre d'emploi
DevOps & SRE Engineer (H/F)
RIDCHA DATA
Publiée le
Agile Scrum
Ansible
AWS Cloud
1 an
40k-51k €
370-440 €
Paris, France
Contexte de la mission Dans le cadre d’une stratégie de transformation vers le cloud public , une grande organisation internationale poursuit la modernisation de ses infrastructures et de ses plateformes de développement. L’objectif est de faire du cloud public la principale plateforme d’hébergement des applications , tout en renforçant les pratiques DevOps, la fiabilité des systèmes et l’automatisation des processus. Dans ce contexte, l’équipe Cloud / DevOps Platform souhaite renforcer son expertise afin d’améliorer : les plateformes CI/CD la Developer Experience la sécurité et la conformité des environnements Missions principales En tant que DevOps & SRE Engineer , vous interviendrez sur les plateformes DevOps et le backbone du Software Development Life Cycle (SDLC) . Vous évoluerez dans un environnement agile (SCRUM / SAFe) favorisant la collaboration, la transparence et l’amélioration continue. Automatisation et infrastructure Concevoir, développer et maintenir des automatisations d’infrastructure via Terraform et Ansible . Développer des intégrations et automatisations permettant d’améliorer la fiabilité et la performance des plateformes . Fiabilité et exploitation (SRE) Mettre en place et améliorer les processus d’automatisation et de gestion des incidents selon les principes Site Reliability Engineering (SRE) . Garantir la stabilité, la sécurité et la scalabilité des environnements. Evolution des plateformes Contribuer à l’évolution du backbone SDLC afin de répondre aux besoins métiers et aux exigences opérationnelles. Participer à l’amélioration des pratiques DevOps, sécurité et conformité . Collaboration et accompagnement Collaborer avec les équipes techniques, les équipes produit et les parties prenantes . Accompagner et mentorer les ingénieurs SRE et les équipes de développement . Environnement techniqueDevOps / CI-CD GitHub Enterprise Server (GHES) Pipelines CI/CD Pratiques DevSecOps Infrastructure as Code Terraform Ansible Cloud Microsoft Azure AWS Environnements hybrides et gestion de résidence des données Monitoring et exploitation Outils de monitoring et d’alerting Gestion des incidents Outils collaboratifs Jira Confluence Langages / scripting Bash PowerShell Méthodologie Agile : SCRUM / SAFe Culture DevOps et amélioration continue Approche SRE (Site Reliability Engineering)
Offre d'emploi
SOC Cyber Defense Expert (Microsoft O365)
RIDCHA DATA
Publiée le
API
Security Information Event Management (SIEM)
SOC (Security Operation Center)
1 an
Île-de-France, France
Contexte de la mission Dans le cadre du renforcement des capacités de cyberdéfense et de supervision SOC , nous recherchons un Expert Cyber Defense / SOC afin d’accompagner l’intégration de nouveaux périmètres techniques dans le système de supervision sécurité. La mission s’inscrit dans un environnement SOC international , avec des méthodes de travail Agile et une collaboration étroite avec plusieurs équipes techniques. Missions Le consultant interviendra sur les activités suivantes : Intégration et supervision sécurité Intégration de nouveaux périmètres techniques dans le système de supervision du SOC Supervision et monitoring des environnements de sécurité Contribution aux activités d’amélioration et de revue des technologies déjà déployées Architecture et stratégie de détection Définition de la stratégie de détection des menaces (logiques de détection et de réaction) Conception de scénarios de détection selon la méthodologie SOC en place Définition et mise en œuvre de l’architecture de collecte des logs Documentation et gouvernance Rédaction des politiques de journalisation (logging policies) Rédaction des documents d’architecture sécurité Documentation des stratégies de détection et procédures associées Collaboration Agile Participation aux rituels Agile avec les équipes techniques Collaboration avec les différentes parties prenantes travaillant sur le même périmètre technique Contribution à l’évolution et à l’optimisation des processus SOC Livrables attendus Le consultant devra produire les livrables suivants : Documents de politique de journalisation pour chaque technologie concernée Documents d’architecture sécurité Définition de la stratégie de détection pour les technologies intégrées Comptes rendus d’avancement dans le cadre du fonctionnement Agile Environnement technique Le consultant devra posséder une expertise sur les technologies suivantes : Cyber Defense IDS / IPS WAF Proxies de sécurité EDR SOC & SIEM Outils SOC et plateformes SIEM Intégration de technologies dans un SOC Cloud & SaaS Security Monitoring sécurité Microsoft O365 Security Monitoring Collecte et analyse des logs Stratégies de détection et corrélation d’événements Une expérience sur Google SecOps serait un plus. Organisation de la mission Durée : 3 mois renouvelables (lot 1) puis extension possible à 6 mois renouvelables Mode de travail : Organisation hybride Travail possible à distance ou sur site selon les besoins du projet Méthodologie : Agile Collaboration avec équipes pluridisciplinaires
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
30k-60k €
Lille, Hauts-de-France
Data Engineer – GCP / BigQuery – Plateforme Data Groupe Lille (2 jours sur site minimum) – Environnement bancaire / Data Platform Vous souhaitez contribuer à la construction et à l’évolution d’une plateforme Data stratégique à l’échelle d’un grand groupe bancaire ? Nous recherchons un Data Engineer pour renforcer l’équipe en charge du Socle Cloud Data Platform Groupe . Vos missions Build Concevoir et développer les flux d’alimentation du DataLake Groupe Mettre en place des solutions de data engineering sur Google Cloud Platform (BigQuery) Développer et maintenir les outillages nécessaires aux certifications de données du projet ORION Identifier et exploiter les sources de données pertinentes Participer à la modélisation et à la transformation des données Collaborer avec les Data Analysts et Data Stewards Run Assurer le suivi de production des chaînes d’alimentation de données Analyser et résoudre les incidents en collaboration avec les équipes de production Participer aux évolutions techniques et optimisations de la plateforme
Offre d'emploi
Architecte DATA Sénior
KEONI CONSULTING
Publiée le
Big Data
SQL
Teradata
18 mois
20k-60k €
100-600 €
Lyon, Auvergne-Rhône-Alpes
"Contexte du besoin Nous recherchons un profil senior en architecture Data afin de nous accompagner dans la définition de l'architecture Data cible, la mise en oeuvre de la nouvelle plateforme Data dans un ecosysteme exisant. Le profil devra accompagner à la définition de l'architecture Data cible, la définition des standards, normes et bonnes pratique sur l'ensemble des socles Data et la mise en œuvre de la nouvelle plateforme Data. MISSIONS - Définir l’architecture cible Data : concevoir l’architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). - Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). - Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. - Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. - Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance). Le profil devra justifier : - d’une expérience confirmée dans la conception et la mise en œuvre de plateformes Data modernes, - d’une expertise en architecture Data (modèles de données, intégration, scaling, sécurité, qualité), - d’expériences significatives sur des projets incluant : la définition d’architectures cibles, la conception de modèles de données complexes, l’accompagnement de trajectoires de migration (Hadoop, Teradata ou plateformes équivalentes), la mise en place de data products et d’approches orientées produit." Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python" Livrables attendus Dossiers d'architecture cible, générale et détailée Cartographie des flux et sources de données Schéma d'intégration avec l'écosystem existant Documents de description des standards, principes et bonnes pratiques Feuille de route et trajectoire cible Ateliers et comptes rendus Support de présentation architecture et dossiers d'arbitrages Environnement technique - technologique Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python Compétences Data Conception d'architecture plateforme Data : - maitrise des architectures Data - maitrise patterns d'ingestion, stockage, transformation, exposition, - capacité à concevoir une architecture cible cohérente avec le SI existant" Modélisation des données : - concevoir des modèles conceptuels, logiques et physiques ; -harmoniser et rationaliser les modèles dans une logique Data Centric ; - appliquer des standards et bonnes pratiques (normalisation, typage, granularité, qualité)." Définition, conception et urbanisation de Produits Data Définition des standards, normes et bonnes pratiques Accompagnement, communication et alignement multi-acteurs "Compétence liée à l'environnement " "Expérience dans l'écosystème de la protection sociale (Retraite Complémentaire idéalement)"
Offre d'emploi
Développeur SharePoint Online (M365) – Intranet Refonte | Agile Scrum
RIDCHA DATA
Publiée le
Open Shortest Path First (OSPF)
React
SharePoint
1 an
Paris, France
Contexte de la mission Dans le cadre de la refonte d’un intranet international basé sur SharePoint Online (Microsoft 365) , nous recherchons un Développeur SharePoint Online pour intégrer une équipe Agile dédiée à la conception et au développement de nouvelles fonctionnalités intranet. L’objectif du projet est de mettre en place une plateforme intranet moderne, performante et centrée utilisateur , permettant d’améliorer l’accès à l’information, la collaboration et la communication interne dans un environnement international. Le développeur interviendra au sein d’une équipe Scrum et participera activement aux développements, aux intégrations techniques et aux livraisons incrémentales de la plateforme. Organisation de l’équipe (Scrum) Le consultant intégrera une équipe Agile de 4 personnes : 1 Business Analyst Recueil et formalisation des besoins métiers Rédaction des user stories Priorisation fonctionnelle avec le Product Owner 2 Développeurs SharePoint Online Conception et développement des solutions techniques Implémentation SPFx et intégrations M365 1 Scrum Master Animation des rituels Agile/Scrum Facilitation de l’équipe Suppression des obstacles Amélioration continue des processus L’équipe travaille en sprints de 2 semaines , avec : backlog priorisé rituels Scrum (Daily, Sprint Planning, Review, Rétrospective) logique de livraison incrémentale Objectifs du poste Développer et maintenir les fonctionnalités de l’intranet sur SharePoint Online . Participer activement aux livraisons de l’équipe Scrum . Garantir la qualité, la performance et la maintenabilité des développements. Missions principales Développement & intégration Développer des webparts et extensions SPFx (React / TypeScript). Configurer et personnaliser les sites SharePoint Modern . Concevoir et gérer : listes SharePoint types de contenu métadonnées taxonomies Intégrer des données via : Microsoft Graph API APIs externes si nécessaire Mettre en place des automatisations via Power Automate lorsque nécessaire. Travail en mode Agile / Scrum Participer aux rituels Agile : Sprint Planning Daily Meeting Refinement Sprint Review Rétrospective Estimer les user stories et contribuer au découpage technique. Collaborer étroitement avec : le Business Analyst le Scrum Master Respecter la Definition of Done (tests, documentation, qualité). Qualité & industrialisation Appliquer les bonnes pratiques de développement : revues de code tests unitaires optimisation des performances Participer à la mise en place et à l’amélioration des pipelines CI/CD . Documenter les développements réalisés. Contribuer au support applicatif si nécessaire. Environnement technique SharePoint Online (Modern Experience) SPFx (SharePoint Framework) React / TypeScript PnPjs Microsoft Graph API Azure AD App Registration Power Platform Power Automate Power Apps Azure DevOps ou GitHub Compétences requises Compétences techniques Excellente maîtrise de SharePoint Online Expérience confirmée en : SPFx React TypeScript Bonne compréhension de l’écosystème Microsoft 365 Expérience de développement dans un environnement Agile / Scrum Compétences comportementales Esprit d’équipe et collaboration Autonomie et rigueur Sens des responsabilités Capacité à travailler dans un environnement international Langues Anglais professionnel requis
Offre d'emploi
Data engineer (H/F)
Amiltone
Publiée le
35k-40k €
Lille, Hauts-de-France
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Offre d'emploi
Business Analyst SharePoint Online – Refonte Intranet (H/F)
RIDCHA DATA
Publiée le
Backlog management
Business Analyst
SharePoint
1 an
Île-de-France, France
Contexte de la mission Dans un contexte international et multi-entités , une grande organisation lance la refonte complète de son intranet basé sur SharePoint Online (Microsoft 365) . L’objectif est de mettre en place une plateforme moderne, unifiée et centrée utilisateur , permettant : un accès simplifié à l’information une meilleure collaboration entre les équipes une communication interne harmonisée à l’échelle mondiale Le Business Analyst jouera un rôle central d’interface entre les équipes métiers, les équipes IT et les parties prenantes internationales afin de garantir que la solution réponde aux besoins fonctionnels tout en respectant les standards du groupe. Objectifs du poste Recueillir et analyser les besoins métiers liés à la refonte de l’intranet. Contribuer à la définition d’une expérience utilisateur cohérente et homogène dans un environnement international. Traduire les besoins métiers en exigences fonctionnelles exploitables par les équipes techniques . Accompagner les métiers tout au long du projet : cadrage, conception, recette et déploiement. Missions principales Analyse & cadrage Identifier et cartographier les parties prenantes (métiers, communication, IT, régions/pays). Animer des ateliers de recueil des besoins (workshops, interviews, comités). Analyser les processus existants et identifier les axes d’amélioration. Formaliser les besoins sous forme de : use cases user stories parcours utilisateurs Conception fonctionnelle Rédiger les livrables fonctionnels : expressions de besoins spécifications fonctionnelles backlog produit user stories et critères d’acceptation Définir les modèles de données fonctionnels : métadonnées taxonomies navigation Contribuer à la définition de l’architecture fonctionnelle de l’intranet : sites hubs pages contenus Collaborer avec les UX/UI designers sur l’ergonomie et l’expérience utilisateur. Coordination & suivi Être l’interface entre les équipes métiers et techniques . Travailler avec les équipes techniques sur : SharePoint Online Power Platform SPFx si nécessaire Participer à : la priorisation du backlog la planification des évolutions Accompagner les phases de recette fonctionnelle : stratégie de tests cas de tests UAT Contribuer à la conduite du changement : supports utilisateurs communication interne formations. Contexte international Prendre en compte les enjeux multiculturels et multilingues . Assurer l’alignement entre besoins locaux et standards globaux . Interagir avec des équipes internationales en anglais . Livrables attendus Dossiers de cadrage fonctionnel Spécifications fonctionnelles User stories Parcours et personas utilisateurs Backlog priorisé Cahiers de recette Comptes rendus d’ateliers Environnement fonctionnel & technique Plateforme SharePoint Online (Microsoft 365) Outils associés Microsoft Teams Power Automate Power Apps Viva (Connections, Engage) Azure AD Méthodologie Agile / Scrum Compétences requises Compétences fonctionnelles Analyse des besoins métiers Modélisation de processus Conception de parcours utilisateurs Rédaction de spécifications fonctionnelles Animation d’ateliers métiers Compétences techniques (non développement) Très bonne connaissance de SharePoint Online architecture sites métadonnées gouvernance Bonne compréhension de l’écosystème Microsoft 365 Sensibilité UX et ergonomie digitale Compétences comportementales Excellentes capacités de communication Esprit de synthèse Capacité à structurer l’information Autonomie et rigueur Sens du service Capacité à évoluer dans un environnement international Langues Anglais professionnel courant indispensable Français requis
Mission freelance
Data Scientist Senior – Recommandation d’offres
emagine Consulting SARL
Publiée le
Google Cloud Platform (GCP)
Statistiques
36 mois
Roissy-en-France, Île-de-France
Contexte Dans le cadre d’un projet stratégique pour un grand groupe, vous interviendrez au sein d’une équipe Marketing Data sur le développement d’un moteur de recommandation d’offres visant à personnaliser les propositions faites aux clients grâce à l’analyse avancée de la donnée. Objectifs Identifier les offres les plus pertinentes selon le profil client Améliorer l’expérience utilisateur Renforcer la pertinence des campagnes marketing Augmenter la conversion commerciale grâce à la data Missions Concevoir, développer et améliorer des modèles statistiques et de machine learning Proposer de nouvelles approches de modélisation Analyser et interpréter les résultats des modèles Présenter les résultats aux équipes métier et chefs de projet Collaborer avec des équipes data et business dans un environnement international
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
30k-60k €
Lille, Hauts-de-France
Data Engineer – GCP / BigQuery – Plateforme Data Groupe Lille (2 jours sur site minimum) – Environnement bancaire / Data Platform Vous souhaitez contribuer à la construction et à l’évolution d’une plateforme Data stratégique à l’échelle d’un grand groupe bancaire ? Nous recherchons un Data Engineer pour renforcer l’équipe en charge du Socle Cloud Data Platform Groupe . Vos missions Build Concevoir et développer les flux d’alimentation du DataLake Groupe Mettre en place des solutions de data engineering sur Google Cloud Platform (BigQuery) Développer et maintenir les outillages nécessaires aux certifications de données du projet ORION Identifier et exploiter les sources de données pertinentes Participer à la modélisation et à la transformation des données Collaborer avec les Data Analysts et Data Stewards Run Assurer le suivi de production des chaînes d’alimentation de données Analyser et résoudre les incidents en collaboration avec les équipes de production Participer aux évolutions techniques et optimisations de la plateforme
Mission freelance
Data Engineer (F/H)
CELAD
Publiée le
1 an
Lille, Hauts-de-France
Data Engineer – GCP / BigQuery – Plateforme Data Groupe Lille (2 jours sur site minimum) – Environnement bancaire / Data Platform Vous souhaitez contribuer à la construction et à l’évolution d’une plateforme Data stratégique à l’échelle d’un grand groupe bancaire ? Nous recherchons un Data Engineer pour renforcer l’équipe en charge du Socle Cloud Data Platform Groupe . Vos missions Build Concevoir et développer les flux d’alimentation du DataLake Groupe Mettre en place des solutions de data engineering sur Google Cloud Platform (BigQuery) Développer et maintenir les outillages nécessaires aux certifications de données du projet ORION Identifier et exploiter les sources de données pertinentes Participer à la modélisation et à la transformation des données Collaborer avec les Data Analysts et Data Stewards Run Assurer le suivi de production des chaînes d’alimentation de données Analyser et résoudre les incidents en collaboration avec les équipes de production Participer aux évolutions techniques et optimisations de la plateforme
Offre d'emploi
Senior IT Project Manager – Programme Data
Gentis Recruitment SAS
Publiée le
Data governance
Data management
Service Delivery Management
12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme stratégique de transformation data à l’échelle internationale, notre client recherche un Senior IT Project Manager pour piloter le déploiement d’un backbone data B2B. Le programme vise à : standardiser les définitions de données B2B industrialiser les contrôles de qualité de données fiabiliser le reporting multi-pays aligner les processus Sales, Finance, Risk, Operations et Carbon fournir une source de vérité unique (single source of truth) Le périmètre couvre plusieurs entités internationales (Europe, Amériques, APAC) dans un environnement fortement gouverné. Objectifs de la mission Le consultant interviendra en responsabilité sur le pilotage global des activités IT liées au programme. Principales responsabilités : Déployer et améliorer les indicateurs et métriques B2B Piloter l’onboarding des parties prenantes Garantir le respect des objectifs, du périmètre, des délais, du budget et de la qualité Coordonner la communication projet et la gestion des stakeholders Piloter les risques, incidents et changements Assurer le steering IT et la delivery des développements selon la roadmap Coordonner les équipes IT locales, architectes et parties prenantes internationales Assurer le reporting auprès des instances de gouvernance Livrables attendus Planning de suivi projet Définition et suivi du périmètre Planification capacitaire Reporting de gouvernance Suivi des risques et plans de remédiation Points différenciants (fortement valorisés) Expérience programmes data backbone / data governance Contexte grands groupes internationaux Coordination multi-pays Interaction Data Office / Product Owners Environnements fortement gouvernés
Mission freelance
Data Manager – Urbanisation et Gouvernance des Données - Marketing Digital
ARTESIA IT
Publiée le
Data governance
1 an
600-700 €
Paris, France
Nous recherchons un Data Manager expérimenté pour un rôle transverse, axé sur l’urbanisation des données, l’architecture fonctionnelle et la gouvernance des données. L’objectif : garantir la cohérence, l’interopérabilité et la fiabilité à long terme des actifs data à travers les différents domaines de l’entreprise, avec une forte orientation marketing digital. 🔹 Missions principales Architecture fonctionnelle & modélisation des données : définir et maintenir des modèles de données cohérents et alignés avec la stratégie métier. Urbanisation des données : organiser l’ownership par domaine, valoriser les actifs data et définir la vision cible des données. Qualité & gouvernance des données : mettre en place et suivre des règles de qualité et de traçabilité (data lineage), en garantissant la conformité et la fiabilité des informations. Collaboration transverse : travailler en mode Agile avec les équipes métiers et IT, en accompagnant le changement de manière constructive. Conseil stratégique : clarifier des sujets complexes, favoriser l’alignement inter-équipes et apporter une vision métier combinée à une expertise technique pointue. 🔹 Profil recherché Minimum 10 ans d’expérience en Data Management , avec expertise en modélisation de données et en pratiques de gouvernance. Maîtrise de la normalisation/dénormalisation , du SQL et des concepts de data lineage . Solide compréhension des règles fonctionnelles complexes , idéalement dans le domaine du marketing digital. Excellente maîtrise du français et de l’anglais . Profil proactif, autonome et doté d’excellentes compétences relationnelles pour faciliter l’adhésion et la collaboration. 🔹 Ce que nous offrons Un rôle stratégique et transverse au sein d’une organisation innovante. La possibilité de travailler sur des projets à forte valeur ajoutée, mêlant technique et stratégie métier. Un environnement Agile stimulant et collaboratif.
Offre d'emploi
Lead data (H/F)
Amiltone
Publiée le
40k-45k €
Villeurbanne, Auvergne-Rhône-Alpes
Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6232 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois