L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 407 résultats.
Mission freelance
Tech Lead transverse Produits Logistique
Montreal Associates
Publiée le
5 mois
Saint-Ouen-sur-Seine, Île-de-France
📄 Tech Lead transverse Produits Logistique - Senior 📍 Localisation : Île-de-France (interventions ponctuelles sur sites R&I) 🌍 Contexte international - Anglais requis 🎯 Contexte Dans un environnement Recherche & Innovation, vous interviendrez en tant que Tech Lead transverse sur l'ensemble du périmètre logistique. Ce périmètre couvre une dizaine d'applications critiques reposant sur des technologies variées : .NET / Web / API / .NET Core Microsoft Dynamics Apigee X Azure (AKS, Container Apps…) PowerBuilder 👉 Les applications permettent notamment de : Gérer les approvisionnements (matières premières, packaging, formules…) Suivre les stocks et plans de réapprovisionnement Assurer la traçabilité des échantillons (codes-barres, étiquettes) Piloter une échantillothèque en lien avec un partenaire externe Gérer un ERP interne utilisé à l'international (France, USA, Brésil, Chine, Japon, Inde, Afrique du Sud) 🚀 Missions En lien avec le Product Lead IT et le Product Owner Logistique , vous interviendrez sur : 🔹 Pilotage & coordination Suivi des projets, plannings et initiatives Recueil et cadrage des besoins métiers Coordination transverse des équipes techniques 🔹 Leadership technique Encadrement, animation et accompagnement des développeurs Gestion des backlogs techniques Interaction avec les équipes infra, cyber, réseau 🔹 Qualité & delivery Mise en place et pilotage des phases de tests techniques Garantie de la qualité des développements Contribution à l'industrialisation des solutions 🔹 Documentation Rédaction de documentation technique Structuration des bonnes pratiques 🧩 Profil recherché Expérience significative en tant que Tech Lead / Chef de projet MOE Capacité à intervenir sur des environnements techniques hétérogènes Forte capacité de coordination et de communication À l'aise dans un contexte international (anglais courant) 💡 Soft skills clés : Leadership & posture de coach Autonomie et force de proposition Rigueur, créativité et persévérance Excellent relationnel 🎯 Environnement Contexte international et transverse Forte exposition métier (logistique R&I) Enjeux critiques autour de la gestion des flux et de la production Montreal Associates is acting as an Employment Business in relation to this vacancy.
Mission freelance
SAP Senior Developer BTP / Integration & Data Conversion
Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA
2 ans
Versailles, Île-de-France
Nous recherchons un Développeur SAP BTP / CPI senior - Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de d'intervenir techniquement sur les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: • Développer et maintenir des flux d'intégration autour de SAP BTP et de l'Integration Suite, en lien avec SAP, les systèmes legacy et les systèmes satellites. • Mettre en œuvre des interfaces techniques basées sur API, événements, fichiers ou middleware, selon les schémas définis par le projet. • Effectuer des activités de conversion de données • Contribuer aux tests techniques, aux tests d'intégration et à la correction des bugs • Documenter les développements réalisés et participer au transfert de connaissances aux équipes internes Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec cartographie, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes
Mission freelance
Data Engineer Python / Azure Cloud (H/F)
Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)
12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Offre d'emploi
QA Tech Expert / Practice Leader Qualité
ASAP TECHNOLOGIES
Publiée le
API
Application mobile
Automatisation
1 an
50k-52k €
500-520 €
Nantes, Pays de la Loire
Dans le cadre du renforcement d’une Factory dédiée à l’édition de solutions de mobilité, nous recherchons un QA Tech Expert / Practice Leader Qualité afin de structurer, porter et animer la stratégie qualité à l’échelle de plusieurs équipes Delivery. La mission s’inscrit dans un environnement innovant, centré sur des solutions PaaS liées à la mobilité, notamment autour de la recherche d’itinéraire, de l’information voyageur et de la distribution de services. Le rôle attendu est à la fois tactique, transverse et opérationnel , avec une forte dimension de pilotage qualité , de standardisation des pratiques et d’ industrialisation de l’automatisation des tests . Vos missions Décliner la stratégie qualité et de tests à l’échelle de la Factory Définir, suivre et faire vivre les KPI qualité Mettre en place les rituels de pilotage et de suivi qualité Identifier les risques qualité, proposer des plans d’actions et suivre la maturité des pratiques Organiser et animer les recettes fonctionnelles avec les PO, QA, développeurs et parties prenantes Auditer les pratiques terrain et accompagner la montée en maturité des équipes Concevoir et maintenir les frameworks d’automatisation de tests API / backend Industrialiser les tests automatisés dans les pipelines CI/CD Garantir la robustesse, la maintenabilité et la standardisation des solutions d’automatisation Promouvoir les outils et approches innovantes, notamment autour de l’ IA appliquée à la qualité Environnement technique Playwright Kotlin TypeScript Automatisation API / backend Automatisation mobile CI/CD Xray Tests automatiques Tests de non-régression Méthodologies agiles
Offre d'emploi
Tech Lead SaFe
ABSIS CONSEIL
Publiée le
Angular
Copilot
DevSecOps
3 ans
45k-62k €
470-520 €
Maisons-Alfort, Île-de-France
Nous recherchons un Tech Lead Java confirmé (à partir de 5 ans d’expérience dans le rôle de TL) pour renforcer notre client en assurance. Vous interviendrez dans une équipe Agile , au sein d’un environnement SAFe , en collaboration directe avec un Product Manager et un Scrum Master. 🛠️ Missions principales Piloter techniquement l’équipe sur les sujets clés Réduire la dette technique et garantir un haut niveau de qualité Participer aux ateliers de raffinage et de conception avec le Product Owner Garantir la bonne prise en compte des besoins dans les engagements du train Développer selon les standards DevSecOps Promouvoir et diffuser les bonnes pratiques DevSecOps Prendre en charge les correctifs et assurer les tests unitaires, automatisés et E2E Suivre les indicateurs d’ Excellence Opérationnelle Participer aux revues d’US et aux estimations Assurer la gestion des anomalies et le suivi de production Construire / améliorer des pipelines CI/CD Exploiter les outils de supervision d’applications Participer aux cérémonies SAFe Mettre en pratique l’usage de l’ IA générative au sein de l’équipe
Offre d'emploi
Data engineer informatica expérimenté H/F
TOHTEM IT
Publiée le
40k-45k €
Toulouse, Occitanie
Pour un client, nous recherchons un·e Data Engineer Informatica expérimenté·e . Tu interviens sur un environnement data structurant avec un objectif clair : challenger les modèles de données et les flux existants, les optimiser et les rendre plus robustes . Le contexte technique évolue vers Informatica Cloud : tu seras donc amené·e, au fil des sujets, à manipuler de plus en plus IICS en complément de PowerCenter. Tes missions Analyser et challenger les modèles de données Revoir les flux ETL Informatica pour : améliorer les performances simplifier les traitements renforcer la qualité des données Concevoir des solutions pérennes et industrialisées Intervenir sur des problématiques complexes de production Travailler avec les équipes métier, architecture et data Être force de proposition sur les choix techniques ➡ Dans le cadre de la mission, tu toucheras progressivement à : Informatica Cloud (IICS) nouveaux patterns d’intégration architectures data plus modernes
Offre d'emploi
Data scientist (H/F)
IA Soft
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
6 mois
40k-45k €
400-550 €
Fontenay-sous-Bois, Île-de-France
Dans le cadre de notre développement, nous recherchons un(e) Data Scientist en CDI pour renforcer notre équipe data. Vous participerez à la valorisation des données de l’entreprise afin d’aider à la prise de décision, d’optimiser les performances et de développer des modèles prédictifs à forte valeur ajoutée. Missions principales : Collecter, nettoyer et structurer des données provenant de différentes sources Réaliser des analyses statistiques et exploratoires pour identifier des tendances, corrélations et opportunités Développer, entraîner et évaluer des modèles de machine learning et d’intelligence artificielle Mettre en production et suivre les performances des modèles développés Collaborer avec les équipes métier, produit, IT et BI pour comprendre les besoins et proposer des solutions adaptées Concevoir des tableaux de bord, rapports et visualisations pour restituer les résultats Assurer une veille technologique sur les outils, méthodes et innovations en data science Participer à l’amélioration continue des processus de traitement et de gouvernance des données
Offre d'emploi
Alternance - Data Analyst F/H (H/F)
█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Python
SQL
21k-23k €
Rouen, Normandie
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Tech Lead Endpoint & Modern Workplace (Intune) | M365 & Power Platform (H/F)
Okara
Publiée le
Intune
Master Data Management (MDM)
Office 365
8 mois
Lille, Hauts-de-France
Contexte & Enjeux Dans le cadre d'une transformation digitale profonde de son SI, notre partenaire structure un modèle Workplace industrialisé, "Secure-by-design" et orienté service . L'enjeu est de piloter la convergence d'un parc hétérogène (Windows, macOS, Mobilité) vers une gestion moderne, tout en intégrant de nouvelles entités et en durcissant la sécurité (standard CIS Level 1 ). Il ne s'agit pas de "faire du support", mais de concevoir la Landing Zone Workplace de demain, d'automatiser les processus d'exploitation et de maîtriser finement l'écosystème de licences Microsoft. Missions & Impact En tant que Tech Lead Endpoint , vous êtes le garant de la cohérence technique et de la performance du parc. Votre quotidien se divise entre architecture et expertise de dernier recours: Design & Validation (Gatekeeper) : Concevoir les baselines de sécurité, valider les choix d'architecture Endpoint et challenger les propositions des partenaires et éditeurs. MCO & Réduction de Dette : Industrialiser le packaging applicatif (Win32, MSIX), automatiser les tâches d'administration récurrentes et fiabiliser le patch management. Expertise "Super N3/N4" : Agir en escalade ultime sur les incidents majeurs (authentification, chiffrement, conformité) et mener les analyses de causes racines (RCA). Gouvernance Power Platform : Définir les stratégies DLP, les modèles d'environnements et accompagner les "makers" dans les bonnes pratiques de développement. Pilotage de Roadmap : Établir la trajectoire technique du poste de travail et optimiser les coûts (TCO) via la rationalisation des licences.
Mission freelance
DATA MESH PLATFORM MANAGER
Codezys
Publiée le
Azure
Cloud
Data governance
12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Offre d'emploi
Data Engineer Cloud H/F
FED SAS
Publiée le
55k-65k €
75001, France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris, un Data Ingénieur Cloud H/F dans le cadre d'un CDI. Rattaché à la DSI, vous contribuez à la conception, à l'industrialisation et à la fiabilisation de la plateforme data de l'entreprise. Votre rôle est clé pour garantir la disponibilité, la qualité et la sécurisation des données utilisées par les équipes BI, analytics et métiers Vos principales missions : Développement et gestion des pipelines data * Concevoir et maintenir des pipelines d'ingestion et de transformation des données * Contribuer à la structuration et à la performance du Data Lake et du Data Warehouse * Assurer la disponibilité et la fiabilité des flux de données Industrialisation de la plateforme data * Participer à la mise en place de standards de développement et de déploiement * Contribuer à l'automatisation et à l'industrialisation des pipelines data * Garantir la robustesse et la performance des traitements Qualité, sécurité et gouvernance des données * Mettre en place des contrôles de qualité et de traçabilité des données * Contribuer au monitoring et à l'observabilité de la plateforme * Veiller au respect des exigences de sécurité et de conformité (RGPD) Collaboration transverse * Travailler en étroite collaboration avec les équipes BI, Data Analytics et IT * Participer à la documentation et au partage de bonnes pratiques * Contribuer à la structuration et à l'amélioration continue de la Data Factory
Mission freelance
Data Manager expert modélisation de données (H/F)
Cherry Pick
Publiée le
Data analysis
Data quality
Snowflake
12 mois
600-630 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Manager expert modélisation de données(H/F), pour le compte de l'un de ses clients qui opère dans le domaine Hôtelier. Description 🎯 Contexte de mission Dans le cadre d’un programme stratégique au sein d’une direction Data, nous recherchons un Data Manager Senior intervenant en rôle transverse sur le domaine Customer et les autres domaines data. La mission vise à garantir la cohérence, la standardisation et la qualité long terme du paysage data , en assurant l’alignement entre les équipes métier, produit et techniques. 🚀 Missions principales et rôle Le Data Manager agit comme référent fonctionnel transverse , garant des standards de data management et facilitateur entre les équipes. 🏗️ 1. Cadrage & Design des Data Products Accompagner les équipes Customer dans le cadrage et la conception des data products Apporter une forte compréhension fonctionnelle des processus Customer Conseiller sur les choix de modélisation (complexité, faisabilité, impacts transverses) Garantir l’alignement avec l’architecture cible et les standards existants 📐 2. Standards & Gouvernance Data Définir et maintenir les standards de data management (règles de modélisation, conventions de nommage, documentation) Structurer les règles de qualité, contrôles et réconciliations Assurer la cohérence et l’adoption des standards au sein du domaine Customer Garantir la qualité de la documentation technique et de la data lineage Être le point de référence sur les pratiques de gouvernance 🌐 3. Urbanisation & Cohérence Transverse Assurer l’interopérabilité entre domaines data Identifier doublons, incohérences et fragmentation des concepts Customer Formuler des recommandations d’optimisation et de simplification Promouvoir la réutilisation et l’harmonisation des modèles Contribuer à la vision long terme de la qualité data 📦 Livrables attendus Support continu aux activités de data management Documentation technique des données (modèles, définitions, lineage) Mise en place et suivi des règles de qualité et de contrôle Coordination des parties prenantes Recommandations d’urbanisation et d’harmonisation
Mission freelance
Data Engineer Nantes/pa
WorldWide People
Publiée le
Scripting
12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Offre d'emploi
Data Engineer GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Manager Plateformes et Outils Data - CDI
CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud
Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
Mission freelance
Lead Data migration SIRH
MSI Experts
Publiée le
Workday
1 an
550-600 €
La Défense, Île-de-France
Cadrage du chantier data migration Responsable de l’équipe et de son animation Responsable du planning Responsable du pilotage et statut d’avancement Consolidation des référentiels Consolidation et contrôle sur les données employés pour tous les pays Responsable des règles de transformation Responsable de la mise à disposition des données aux intégrateurs Point de contact avec les pays Défini la stratégie de reprise de donnée et de data catch up Pilote l’exécution de la reprise de donnée et du data catch up Contribue aux décommissionnements du legacy
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2407 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois