L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 852 résultats.
Offre d'emploi
Lead Data Engineer – Azure / Snowflake / dbt
Publiée le
Azure
DBT
Snowflake
2 ans
Paris, France
Télétravail partiel
Contexte & Objectif de la mission Dans le cadre d’un projet stratégique de modernisation des plateformes de données, nous recherchons un Lead Data Engineer capable de piloter la conception, l’industrialisation et l’optimisation des flux data sur Azure et Snowflake. Vous interviendrez en tant que référent technique au sein de l’équipe Data Engineering, en apportant votre expertise sur les architectures cloud, la modélisation, la performance et les bonnes pratiques CI/CD. Rôles & Responsabilités Concevoir, développer et optimiser des pipelines de données sous Snowflake / Snowpark. Orchestrer les flux via Azure Data Factory et dbt (Python) pour des traitements fiables et scalables. Intégrer et exposer des APIs pour l’ingestion, la transformation et la diffusion des données. Déployer et administrer l’infrastructure as code via Terraform. Implémenter et superviser les pipelines CI/CD sous Azure DevOps. Automatiser les tâches récurrentes avec PowerShell et Azure CLI. Encadrer la modélisation des données (3NF, étoile) et la mise en œuvre du modèle d’entreprise et du Data Warehouse. Garantir la gouvernance des données, la qualité, la sécurité (RGPD) et le FinOps des plateformes. Assurer la documentation, la supervision et la coordination technique avec les équipes métiers et IT. Environnement technique Azure – Snowflake – dbt (Python/Snowpark) – Azure Data Factory – Terraform – Azure DevOps – PowerShell – Azure CLI – PowerDesigner – Git
Mission freelance
Expertise Data Assurance (DSN)
Publiée le
CoreData
6 jours
400-600 €
Paris, France
Télétravail partiel
Vous interviendrez dans les chantiers de transformation afin d'accompagner les travaux sur l'usage des données pouvant provenir des DSN. A ce titre, vos missions consisteront à contribuer: Concevoir un modèle de données Socle des données et de l'implémenter dans le DataWarehouse Recueil des usages de Données DSN Réalisation de l’analyse fonctionnelle et technique Proposition de modélisation fonctionnelle des données, ayant un sens métier Proposition d’Architecture fonctionnelle et technique pour l’implémentation Développement du socle Déploiement du socle auprès des métiers et utilisateurs de ces données Partage de la connaissance du fonctionnement de la DSN, du modèle réalisé et de l’implémentation Pilotage du chantier pour tenir un engagement fort d’implémentation Animation et coordination des ateliers et travaux entre les parties prenantes Organisation et validation des phases de tests et de recette. Suivi des actions, des risques et des décisions pour garantir le bon déroulement des projets
Mission freelance
228369/Data analyst Microsoft Power BI Python - Pau - no remote
Publiée le
Microsoft Power BI
Python
6 mois
320-350 €
Pau, Nouvelle-Aquitaine
Data analyst Microsoft Power BI Python - Pau - no remote La mission porte sur les projets d’amélioration de la qualité de la donnée des dépenses et nettoyage des Master data articles & services Goals and deliverables Prestations : Le Fournisseur est chargé de fournir les Services pour couvrir les activités suivantes : - Besoin d'un profil Data Analyst avec un intérêt pour la data science - Support métier Stock & Master Data - Interactions avec les administrateurs Outils - Interactions avec le métier (Category Managers et leurs Segment Leaders, Assistance filiales) - Interactions avec les entités Achats des filiales et avec les projets lors des demandes spécifiques - Traitement de données via programmation Python - Construction des cartographies et analyse des données de stock - Construction des outils de Master Data et Stock Management - Regroupement des fournisseurs sous leur maisons mères et par fournisseur stratégique - Spécification des extracteurs des données en provenance des ERP - Optimisation de pipeline d'extraction de données - Suivi des tâches réalisées et archivage des règles appliquées - Reporting et communication des modifications réalisées - Publication de rapport et tableaux de bord BI de synthèse d’activités et résultat - Participation à l’amélioration des processus et de la rédaction des modes opératoires - Support à la cellule référentielle dans la mise en qualité des données - Création, maintenance et optimisation d'outils - Utilisation de l'Intelligence Artificielle pour réaliser des prédictions et automatiser des tâches - Etre curieux, proactif et force de proposition Expected skills Skills Skill level Microsoft Power BI Confirmed Programmation Python Confirmed SAP Advanced data analyst Expert data science Advanced Languages Language level Anglais Fluent
Mission freelance
Data Scientist Sénior | Expert Retail (H/F)
Publiée le
Apache Airflow
Docker
Google Cloud Platform (GCP)
12 mois
400-590 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’une transformation digitale d’envergure au sein d’un grand acteur du retail, la Direction Data & IA renforce ses équipes pour accélérer la mise en œuvre de modèles de Machine Learning à fort impact business. Le consultant interviendra au sein d’une squad Data Science dédiée à la conception, à l’industrialisation et à l’exploitation de modèles de ML appliqués à divers cas d’usage (pricing, prévision, recommandation, fidélisation, supply chain…). Missions principales Concevoir, entraîner et déployer des modèles de Machine Learning adaptés aux besoins métiers (classification, régression, clustering, NLP, etc.) Préparer et qualifier les jeux de données (data cleaning, feature engineering, détection d’anomalies, sélection de variables) Mettre en place et maintenir les pipelines d’industrialisation (MLOps : Airflow, MLflow, Docker, CI/CD) Collaborer étroitement avec les équipes Data Engineering et Produit pour garantir la scalabilité et la performance des modèles Superviser et améliorer les modèles en production (monitoring, retraining, suivi des indicateurs) Documenter et restituer les travaux auprès des parties prenantes techniques et métiers
Mission freelance
PMO Senior /Manager De Transition DSI
Publiée le
Agile Scrum
Data management
Data visualisation
6 mois
640-680 €
Île-de-France, France
Télétravail partiel
Contexte : Dans un contexte de forte transformation et de croissance des activités, notre client – acteur majeur du secteur des services et de la performance opérationnelle – recherche un PMO Senior pour renforcer la gouvernance de ses projets stratégiques et accompagner la structuration de ses processus internes. Le poste s’inscrit dans une démarche d’amélioration de la performance, de maîtrise budgétaire et d’optimisation du pilotage transverse des programmes métiers et SI. 🎯 Missions principales Pilotage de portefeuille et coordination de projets : Structurer, prioriser et suivre le portefeuille de projets stratégiques Assurer la coordination entre les directions métier, DSI et partenaires externes Mettre en place et animer les instances de gouvernance (comités projet, COPIL, reporting) Identifier les risques, arbitrer les priorités et consolider les plans d’action Suivi budgétaire et performance : Consolider les budgets projets et suivre les indicateurs financiers (coûts, charges, ROI) Produire les tableaux de bord de performance et de pilotage consolidés Accompagner la direction dans les décisions d’investissement et de priorisation Méthodologie et outils : Définir et diffuser les standards méthodologiques (plan de projet, reporting, indicateurs, suivi des ressources) Optimiser les outils de pilotage (Power BI, Excel, Project, Planview, Jira, etc.) Mettre en place les processus de lancement, suivi et clôture de projet Accompagnement et conduite du changement : Soutenir les chefs de projet dans la montée en maturité en gestion de projet Contribuer à la structuration de la fonction PMO au sein de l’organisation Promouvoir la culture de la performance et l’amélioration continue
Mission freelance
Data Analyst (3-6ans) E-Commerce, Marketing & Relation Clients (h/f) - (Full remote Maghreb)
Publiée le
BigQuery
DBT
3 ans
100-200 €
Maroc
Télétravail 100%
Nous recherchons un Data Analyst expérimenté (h/f) pour rejoindre un grand acteur international du retail. 🎯 L’objectif ? Participer à la mise en place et à l’évolution de la Customer Data Platform (Salesforce Data Cloud) et du nouvel outil d’animation CRM (Salesforce Marketing Cloud Engagement) , afin d’améliorer la connaissance client et de personnaliser la relation sur tous les canaux digitaux. Tu évolueras dans un environnement à fort enjeu business et technologique, au croisement du Big Data, du CRM et du e-commerce , où la qualité et la performance de la donnée sont essentielles pour piloter la stratégie client du groupe. 🚀 Tes missions principales : Collecter et formaliser les besoins métiers liés à la connaissance et à l’activation client Concevoir, maintenir et optimiser les objets SQL dans BigQuery pour alimenter Salesforce Data Cloud et Marketing Cloud Engagement Garantir la qualité, la fiabilité et la cohérence des pipelines de données dans un environnement Cloud (GCP) Construire et optimiser des dashboards analytiques sous Looker / Looker Studio , en identifiant les KPI critiques pour le pilotage marketing et CRM Contribuer à la modélisation et au maintien du modèle de données CRM Participer à la migration des systèmes CRM et à la TMA des projets data (corrections, évolutions, documentation) Travailler en étroite collaboration avec les équipes Data Engineering, CRM, Marketing et Produit Être force de proposition pour l’amélioration continue et la performance des traitements analytiques 🔧 Environnement technique & outils : Langages & Data : SQL (expert), BigQuery, dbt, Dataform BI & Visualisation : Looker, Looker Studio, outils BI similaires CRM & Cloud : Salesforce Data Cloud, Salesforce Marketing Cloud Engagement DevOps & CI/CD : GitLab CI, Git Cloud : Google Cloud Platform (GCP), bonnes notions d’architectures Data Lake / Data Warehouse Méthodologies : Agile (Scrum, Sprint Planning, Backlog Refinement)
Mission freelance
Profil Data et BI
Publiée le
Business Analysis
12 mois
620-640 €
Genève, Suisse
Télétravail partiel
Pour l’un de nos clients Suisse, nous avons cette demande de profil et recherchons le candidat adéquat : 1-Services Dans le cadre de la transformation interne de son département Digital IT, le client fait appel à un prestataire de service pour la réalisation des services suivants : Développement d’une culture BI (env. 40% du temps) : Sensibiliser les collaborateurs aux enjeux Data et BI et dans l’exercice individuel de nombreuses fonctions Développer l’intérêt et la compréhension du processus décisionnel basé sur des données, que ces décisions soient opérationnelles ou stratégiques Sensibiliser chacun à ses responsabilités en matière de données : la qualité des données est l’affaire de tous ! Développer une culture plus approfondie auprès des publics cibles 2. Accompagnement à l’adoption de l’outil Power BI (env. 40% du temps) : Accompagner les utilisateurs dans la transition de la plateforme Cognos vers Power BI, y compris dans la phase de rationalisation des rapports / cleaning. Développer l’usage de la plateforme et des rapports en général, auprès des utilisateurs actuels mais aussi de nouveaux utilisateurs – notamment dans une approche autonome de ‘self-service’. Aider à la cohabitation des deux formes de collaboration autour des rapports : avec l’équipe du Data Office pour les demandes les plus complexes, en autonomie avec les autres utilisateurs partageant les mêmes besoins pour les besoins plus simples (self-service). Développement d’une culture IA (env. 20% du temps) : Sensibiliser les équipes aux fondamentaux de l’IA (principes, enjeux, cas d’usage variés) afin de développer une culture commune et préparer les collaborateurs à une adoption progressive et réussie des futurs projets IA. Renforcer l’autonomie des utilisateurs dans l’exploitation avancée de M365 Copilot et Copilot Chat, en mesurer l’adoption. Accompagner l’intégration d’agents et solutions IA adaptés aux besoins métiers. Communication et valorisation des actions et progrès accomplis (en transversal) : Mettre en avant les réalisations auprès des équipes IT et de l’ensemble de l’organisation afin d’appuyer la transformation en marche et de célébrer les efforts et résultats. 3-Livrables Définition et exécution d’un plan de soutien au changement et à l’amélioration continue pour la BI et l’IA, y compris les actions et supports d’engagement, de communication et de formation Rédaction et développement de communications régulières stratégiques, i.e. pour les prises de parole du sponsor et la mise en contexte avec la stratégie et les objectifs attendus de la transformation de l’entreprise Cartographie des utilisateurs actuels et potentiels (types de besoins, niveau de maturité, canaux de communication…) ; collecte qualitative des feedbacks Définition et suivi des critères d’adoption et de réussite Mise en place et animation de communauté d’utilisateurs Ancrage de cette transformation dans le paysage du Client (par exemple, développement de contenu pour l’Intranet, communications conjointes avec les métiers…) 4-Exigences techniques Au moins 7 ans d’expérience en tant que Change Manager dans des transformations informatiques et numériques – si possible liées à la data et business intelligence. Expérience avec la plateforme Power BI essentielle. Expérience avec Copilot (ou autres assistants intelligents) est un plus. Expérience en conseil en transformation digitale appréciée. Bonnes qualités relationnelles, aisance à l’oral. Bonnes qualités rédactionnelles, aisance dans la communication écrite et dans la vulgarisation de sujets complexes. Forte capacité à engager les parties prenantes, à mobiliser les acteurs du changement et les personnes impactées. Maîtrise du français et de l’anglais (oral et écrit). 5-Durée du contrat À partir du mois d’octobre pour une période de 12 mois renouvelable. 6-Lieu de la prestation Le lieu de réalisation de la prestation est : 3 jours par semaine au minimum sur un site suisse. Ce qui implique que le profil doit habiter en suisse (Les ressortissants des pays de l'UE et de l'AELE peuvent exercer une activité lucrative en Suisse pour une durée maximale de 90 jours par année civile) Cette demande est extrêmement urgente car nous devons proposer les profils ce mercredi 08/10.
Offre d'emploi
Cybersecurity Officer - Data
Publiée le
Cybersécurité
6 mois
Île-de-France, France
Télétravail partiel
Objectif de la mission Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre du Group Data CISO vis à vis de l'évolution de la stratégie relative à la sécurité de la DATA en étant l'interlocuteur privilégié des différentes fonctions ayant des responsabilités vis à vis de Data. Il est un élément clé dans la préparation et l'organisation des "Group Data Steering Committee" Prestations demandées : -Interaction avec l'ensemble des parties prenantes pour définir les priorités en termes d'exigences cyber autour de la Data - Assurance que les exigences peuvent être déployées. ( i.e. que des outils, si nécessaires, seront disponibles) - Conciliateur , en particulier avec les équipes de GDPO (Groupe Data Privacy Officer) et propose les évolutions vis à vis de la sécurité des données personnelles à instruire dans la matrice cyber. - Participation à l'amélioration de la gouvernance autour de la sécurité de la Data - Participation à la préparation des "Group DataSec Steering Committee"
Mission freelance
Senior Data / IA engineer (dataiku)
Publiée le
Dataiku
DevOps
Large Language Model (LLM)
3 ans
Île-de-France, France
Télétravail partiel
Dans le cadre de notre croissance stratégique, nous recherchons un Senior Data / AI Engineer (Dataiku) pour rejoindre notre Group Data Office , au service des métiers. Vous jouerez un rôle clé dans l’accélération de la création de nouveaux produits basés sur la donnée, l’automatisation des processus métier via l’automatisation agentique, et la prise de décisions stratégiques. Votre contribution apportera à la fois rapidité et robustesse à nos pipelines et solutions data. En collaboration avec les parties prenantes métiers, vous accompagnerez les projets de bout en bout — de la phase d’idéation et de prototypage rapide jusqu’au déploiement en production. Donner le pouvoir de la donnée aux décisions Notre client est un acteur européen majeur dans le secteur financier , connectant les économies locales aux marchés mondiaux. Présent dans plusieurs pays d’Europe, il propose des services de négociation, compensation et cotation pour une large gamme de classes d’actifs : actions, dérivés, matières premières, etc. La donnée est au cœur de ses opérations et de sa stratégie d’innovation — elle permet des décisions plus intelligentes, des processus plus fluides et des solutions de pointe. Rejoignez l’équipe et contribuez à façonner l’avenir des marchés financiers grâce à une ingénierie data scalable et à fort impact. Vos missions En tant que Senior Data / AI Engineer (Dataiku) , vous serez amené(e) à : Collaborer avec les équipes métiers, opérations et IT pour recueillir les besoins et concevoir des solutions data sur mesure. Développer et optimiser des pipelines de données robustes, évolutifs et performants, soutenant des processus métier critiques. Co-créer des prototypes rapides avec les utilisateurs métier afin de valider des hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, en mettant l’accent sur la qualité des données, la maintenabilité et la performance. Soutenir la livraison continue et le déploiement en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Contribuer à l’évolution de la stack data et promouvoir les meilleures pratiques au sein de l’équipe.
Offre d'emploi
Data Engineer - Java/ Spark
Publiée le
Apache Spark
AWS Cloud
AWS Glue
6 mois
40k-45k €
260-500 €
Tours, Centre-Val de Loire
Télétravail partiel
Démarrage : Dès que possible Contexte Dans le cadre du renforcement de nos équipes Data, nous recherchons un Data Engineer confirmé maîtrisant les environnements Java, Spark et AWS . Vous interviendrez sur des projets à forte volumétrie, autour de la collecte, du traitement et de la valorisation de la donnée. Missions Concevoir, développer et maintenir les pipelines de données sur des architectures distribuées (Spark, AWS). Industrialiser et fiabiliser les traitements batch et temps réel. Participer à la modélisation et à la gouvernance de la donnée. Optimiser la performance et la scalabilité des flux. Collaborer étroitement avec les équipes Data Science, BI et Cloud. Contribuer à la veille technologique et à l’amélioration continue des bonnes pratiques Data Engineering. Environnement technique Langages : Java, Python (souhaité) Frameworks : Apache Spark, Kafka, Airflow Cloud : AWS (S3, EMR, Glue, Lambda, Redshift, Athena) CI/CD : GitLab, Docker, Terraform Base de données : PostgreSQL, DynamoDB, Snowflake (selon projet) Profil recherché Formation Bac+3 à Bac+5 en informatique, data ou équivalent. Expérience confirmée en développement Java appliqué à la donnée (Spark). Bonne connaissance des services AWS orientés data. Esprit analytique, rigueur et goût du travail en équipe. Une sensibilité DevOps ou un attrait pour l’industrialisation est un plus. Pourquoi nous rejoindre ? Des projets Data à fort impact dans des environnements techniques exigeants. Un cadre de travail stimulant, collaboratif et bienveillant. De réelles perspectives d’évolution (technique ou architecture).
Offre d'emploi
Expert Cloud / Tech Lead Cloud et Data
Publiée le
Hadoop
Scala
1 an
40k-45k €
400-800 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Au sein de l'équipe informatique d'un grand groupe bancaire (350 personnes), la DSI Fonctions Centrales a en charge la gestion d'applications métiers pour le compte des clients corporate (Finance, risque, conformité, marketing, automobile, RH, ...) et des plateformes data. Elle opère pour le compte de ses clients en central, mais est également fournisseur d'applications pour l'ensemble des filiales sur ce périmètre transverse. La prestation se déroule sur le site principal au sein de la Tribe Data France. Missions principales Accompagner les projets de migration vers le Cloud interne Accompagner les équipes de développement dans les bonnes pratiques de développement en intégrant les enjeux data et sécurité Mettre en place des pratiques d'automation/industrialisation via DevSecOps Réaliser la première implémentation de Gen AI dans le contexte Data Participer à des chantiers transverses d'amélioration continue et de monitoring Participer à la définition de la stratégie Data pour le périmètre France
Mission freelance
Data scientist
Publiée le
Apache Spark
Hadoop
PostgreSQL
6 mois
510-540 €
Courbevoie, Île-de-France
Télétravail partiel
Vous aurez l’opportunité de contribuer à un projet d’envergure : le déploiement massif de bornes de recharge pour véhicules électriques dans les parkings collectifs. Ce programme, déjà en cours, se renforce et constitue une nouvelle équipe de 3 Data Scientists, intégrée à une équipe pluridisciplinaire d’une dizaine de personnes dédiée à la mobilité électrique et aux solutions de demain. Vos missions : - Réaliser des études statistiques et de la modélisation prédictive pour optimiser les déploiements, - Traiter et analyser des données massives en Python (un peu de R possible, mais non indispensable), - Collaborer avec des experts métiers et techniques pour transformer les données en leviers concrets de performance, - Participer au Comité Data interne pour partager les bonnes pratiques et enrichir vos compétences, - Évoluer dans une méthodologie SAFe, au cœur d’un environnement structuré et collaboratif.
Mission freelance
Product Owner – Plateforme Data
Publiée le
DevOps
18 mois
100-580 €
Paris, France
Télétravail partiel
CONTEXTE Le département Data IA (DaIA) a la charge de mettre à disposition des métiers un socle technologique transverse - La plateforme de Donnée - Une Plateforme de données gouvernées et disponibles c'est-à-dire de qualité, documentée, ayant une traçabilité, dont les accès sont gérés finement, cataloguées et monitorées. Nous recherchons une prestation de Product Owner expérimenté pour superviser le développement et la mise en œuvre de notre plateforme data. Le candidat idéal aura une solide expérience en gestion de projet dans le domaine de la data, avec une compréhension approfondie des technologies cloud et big data. Le candidat sera en étroite collaboration avec les équipes technique et métier du projet et les parties prenantes de l'entreprise. MISSIONS Superviser tous les aspects de vie du produit, y compris la planification, la gouvernance, l'allocation des ressources, le suivi du progrès et la communication avec les parties prenantes. • Définir la feuille de route du projet, le périmètre et le calendrier des livraisons en accord avec les parties prenantes. Veiller au bon déroulement des projets, au respect des délais et des budgets. • Planification du Maintien en Condition Opértionnel de la plateforme et les processus opérationnels pour l’ingéniérie de la fiabilité des sites (SRE). • Collaboration avec l’équipe technique : ingénieurs, développeurs, analystes data et les autres membres de l'équipe pour assurer une exécution fluide du projet et participer aux rituels agiles des équipes. • Définir et suivre les indicateurs de performance clés (KPIs) pour évaluer la charge, capacité des équipes et le suivi des livraisons pour les différentes équipes. • Identifier les risques et mettre en place des plans de contingence pour minimiser l'impact sur le projet. • Identifier et mettre en œuvre des actions d’amélioration continue (processus, outils, pratiques) et mettre en place et gérer une base de connaissances de projets pour capitaliser sur les leçons apprises et favoriser le partage des meilleures pratiques. • Fournir des mises à jour régulières sur l'état du projet aux parties prenantes et à la direction et assurer la mise en place et le déroulement des réunions de suivi. • Fournir une formation et un soutien aux utilisateurs finaux sur les meilleures pratiques en matière de gestion des données. Expertises demandées pour la réalisation de la prestation : 8 ans d'expérience en Product Ownership, dans le domaine de la data ou du digital et des nouvelles technologies • Utilisation de Jira et Confluence : MAITRISE • Utilisation des méthodologies Agiles (SCUM, Kanban, Lean) : MATRISE • Connaissance des process ITIL : CONNAISANCE • Connaissance de l’environnement Cloud GCP (une certification est un plus) : CONNAISANCE • Excellentes compétences en gestion de projet, y compris la planification, l'organisation, la gestion du temps et la résolution de problèmes : CONFIRME • Excellentes compétences en gestion de produits, suivi et roadmap : MAITRISE • Excellentes compétences en communication écrite et verbale en français et en anglais, et savoir discuter dans des situations tendues : MAITRISE • Excellente compétence dans l’animation de communauté d’utilisateurs. : MAITRISE • Autonomie et capacité à gérer plusieurs tâches et équipes métier simultanément : MAITRISE • Une expérience préalable de gestion de projet avec des équipes DevOps (DevOps/ GitOps /FinOps/SecOps) : CONFIRME • Une expérience dans le milieu de media est exigée : CONFIRME
Mission freelance
Product Owner IA & Médias Numériques
Publiée le
Artificial neural network (ANN)
Data analysis
Data management
6 mois
500-560 €
Paris, France
Télétravail partiel
Contexte : Dans le cadre d’un projet stratégique autour de l’implémentation d’un modèle User Needs appliqué aux offres d’information, intégrant des solutions d’Intelligence Artificielle (IA), le Product Owner interviendra depuis la phase R&D jusqu’à la mise en production. Missions principales Assurer le rôle de Product Owner sur le projet : cadrage du périmètre fonctionnel, gestion du backlog, définition et suivi de la roadmap. Identifier, prioriser et spécifier les besoins utilisateurs. Rédiger les user stories , spécifications fonctionnelles et tests d’acceptation. Co-construire la roadmap avec les différentes parties prenantes (produit, design, développement, qualité). Suivre les développements et garantir leur conformité aux besoins exprimés et aux objectifs définis. Réaliser la recette fonctionnelle et accompagner la mise en production. Participer aux cérémonies agiles (sprint planning, rétrospective, refinements, etc.). Animer ou co-animer des ateliers de conception avec UX. Documenter les fonctionnalités et pratiques IA liées au projet. Assurer la communication régulière auprès des sponsors et parties prenantes. Proposer des évolutions, améliorer en continu le produit et veiller au respect des objectifs business et réglementaires. Effectuer une veille technologique et concurrentielle sur l’IA et les médias numériques. Compétences requises : Gestion de produit & PO : backlog, user stories, roadmap, KPI, agilité. Expertise IA & Data : expérience avec des modèles de langage, compréhension des solutions disponibles et de leur cadre réglementaire. Méthodologie : Product Discovery, prototypage, tests utilisateurs, amélioration continue. Expérience médias : compréhension des besoins éditoriaux et des enjeux numériques. Soft skills : pédagogie, communication claire, capacité à vulgariser l’IA auprès de non-techniques, gestion multi-interlocuteurs.
Offre d'emploi
Chef de Projet Data/IA – Décisionnel & ETL H/F
Publiée le
Data analysis
Databricks
PowerBI
6 mois
45k-55k €
400-500 €
Montpellier, Occitanie
Télétravail partiel
Nous recherchons pour une mission de 3 à 6 mois (réalisation d'une étude de migration de Microstrategy vers Powerbi et Informatica vers Nifi) un Chef de Projet Data/IA – Décisionnel & ETL H/F sur Montpellier. Contexte Au sein du département DATA/IA, vous interviendrez sur l’évolution du pilotage RH et des socles d’échange, en intégrant les dimensions décisionnelles, ETL, urbanisation SI et IA4IT. Missions principales Piloter la prestation forfaitaire à obligation de résultats. Réaliser les études et scénarios de migration : Décisionnel (MicroStrategy → Power BI/Tableau). ETL (Informatica → NiFi/Databricks). Analyser et rationaliser les 80 000 rapports décisionnels existants. Cadrer et formaliser la note IA4IT, identifier et prioriser les cas d’usage. Coordonner les acteurs internes (Architectes, Achats, partenaires, DTD-RH). Produire le macro-chiffrage et le macro-planning des scénarios. Définir et animer la gouvernance projet (RACI, comitologie, capacity planning). Assurer le reporting (hebdo + comités de suivi bi-mensuels). Accompagner l’urbanisation du SIRH et garantir la cohérence avec le cadre ITEAM. Livrables attendus Note de cadrage (existant, prérequis, opportunités). Études et scénarios de migration Décisionnel et ETL. Plan de rationalisation des rapports. Macro-chiffrage et macro-planning. Note de cadrage IA4IT et plan d’action associé. Roadmap migration & organisation cible (optionnel). Compétences requises Pilotage projet : planification, suivi, animation de comités, reporting. Décisionnel : MicroStrategy, Power BI, Tableau, Self-BI, rationalisation de reporting. ETL / Data : Informatica, NiFi, Databricks, urbanisation de flux SI. Architecture & Urbanisation SI : principes d’urbanisation SIRH, cadre ITEAM. IA / Data Science : identification et cadrage de cas d’usage IA4IT. PMO : structuration de dossiers de cadrage, RACI, capacity planning, comitologie. Communication : capacité à animer des ateliers métiers, rédiger des notes de synthèse claires, restituer auprès de la direction. Avantages : Mutuelle entreprise – Prévoyance - Tickets restaurants - Prime de vacances – Abonnement transport-Jours de congés supplémentaires – Télétravail – Newsletters pour que chaque salarié puisse être informé des évènements et de l’évolution de la société.
Offre d'emploi
Ingénieur Data H/F
Publiée le
IBM Db2
Oracle
SAP
1 an
75k-80k €
500-600 €
Luxembourg
Nous recherchons pour un de nos clients spécialisé dans le domaine bancaire un Ingénieur Data Custodian H/F pour une mission à pourvoir dès que possible sur le secteur du Luxembourg ville. Vos missions : Définition des standards et suivi de la qualité : Assurer le suivi qualitatif des évolutions des modèles de bases de données, leur documentation et leur maintenance (via SAP Power Designer). Mettre en place des indicateurs et tableaux de bord pour le suivi de la qualité des modèles de données. Accompagner les équipes dans la modélisation de leurs modèles afin de garantir le respect des règles de qualités et de normes internes mises en place. Gestion de la qualité et de la gouvernance : Veiller à l’application des normes et lignes directrices définies et la qualité technique. Assurer la mise en oeuvre technique de la rétention des données structurées conformément aux exigences réglementaires. Pilotage de projets et suivi des pratiques : Apporter un support aux projets liés à la gestion des données tel que le Data Lineage (BCBS 239), la Data Retention (GDPR) et la Data Classification. Maintenance et vérification des données : Cartographier les données de l’organisation. Documenter les métadonnées des données structurées et non structurées (rétention, classification, etc.).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- CFE Cas spécial ou d'autres (mauvaises) expérience ??
- Activités à choisir
- Stratégie épuisement des fonds jusqu'à la retraite
- Catégorisation Activité sur INPi - Micro Entrprise
- Identifier les partenaires directs des Grands Groupes (sans intermédiaires)
1852 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois