Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 726 résultats.
Mission freelance
ingénieur applicatif Talent & Performance Workday Anglais 520 e par jour
BI SOLUTIONS
Publiée le
Data Lake
Workday
2 ans
400-520 €
Île-de-France, France
ingénieur applicatif Talent & Performance Workday 520 e par jour ANGLAIS Préparer et soutenir les campagnes Talent et Performance - telles que notre suivi du développement, l'évaluation de performance de fin d'année, la campagne de définition des objectifs ou les revues de talents : Configurer des règles d'éligibilité complexes, Préparer des modèles Configurer les notifications, les textes d'aide et leurs traductions Créer des documents dans Document pour la mise en page et BIRT Mettre à jour les rapports avec le soutien d'un expert en reporting si nécessaire Mettre en œuvre des modifications de sécurité et travailler en collaboration avec l'équipe Sécurité Workday Prerequisites: Workday Talent & performance certification and experience in complex configuration (calculated fields, EIBs, migration of data using OX…) Knowledge of BIRT and document for layout would be greatly 520 e par j
Mission freelance
POT8985 - Un Lead Data Continuity sur Meudon
Almatek
Publiée le
Big Data
6 mois
400-550 €
Meudon, Île-de-France
Almatek recherche pour l'un de ses clients, un Lead Data Continuity sur Meudon. Objectif : Diagnostiquer les risques liés à la maturité et à la continuité des données Sécuriser les décisions clés de conception (KDD) Concevoir et contribuer au lancement d'un hub de continuité des données permanent Activités : Concevoir et déployer un cadre de maturité structuré Animer des ateliers multi-entités Réaliser des profils de données Élaborer des cartographies de maturité inter-groupes Identifier les risques systémiques Fournir une feuille de route de remédiation priorisée
Offre d'emploi
Test Data Manager Senior/Expert (H/F)
HELPLINE
Publiée le
Data management
1 an
40k-45k €
400-550 €
Île-de-France, France
Contexte Dans le cadre de la migration d’un système central de réservation, une fonction transverse de gestion des données de test : Test Data Manager (H/F) est mise en place pour organiser et structurer les jeux de données de test, et assurer la fiabilité et la sécurité des campagnes de tests end-to-end et métiers. Missions principales Pilotage TDM : Définir la stratégie de gestion des données de test, organiser et prioriser les demandes, suivre la qualité et la disponibilité, garantir un service fiable pour les équipes et les campagnes. Catalogue et gouvernance : Maintenir un catalogue centralisé, définir les règles d’usage et de versioning, assurer traçabilité, qualité et sécurité des données. Support aux équipes et E2E : Recueillir les besoins des équipes, coordonner la configuration des données, supporter les campagnes de test et sécuriser les parcours critiques. Gestion des prestataires : Piloter les partenaires, définir le cadre opérationnel, suivre performance et qualité, coordonner activités internes et externes. Industrialisation et amélioration continue : Identifier et mettre en œuvre des leviers d’automatisation et d’outillage, réduire les délais, optimiser les processus TDM. Onboarding, documentation et communication : Définir et diffuser les processus, accompagner l’intégration des équipes, produire la documentation de référence et assurer le reporting régulier.
Offre d'emploi
Data Quality Analyst
UCASE CONSULTING
Publiée le
Data cleaning
Data quality
Gouvernance
1 an
40k-50k €
400-500 €
Île-de-France, France
Pour le compte de notre client, nous recherchons un(e) Senior Data Quality / Master Data Analyst pour renforcer la gouvernance et la fiabilité du référentiel utilisateurs. Vous serez garant(e) de la qualité, de la cohérence et de l’alignement des données utilisateurs entre le référentiel central et les outils tiers, notamment : Docebo SmartRecruiters ServiceNow Microsoft Entra ID Vos missions Piloter la qualité et la complétude des données utilisateurs Identifier et corriger les doublons et incohérences Réconcilier les données entre plusieurs systèmes Contrôler la cohérence entre rôles, services et abonnements Assurer l’alignement avec l’annuaire (Entra ID) Mettre en place des contrôles récurrents et produire un reporting hebdomadaire Coordonner les actions correctives avec les équipes concernées
Offre d'emploi
Data Analyst expert BIG DATA xp Hadoop
ARDEMIS PARTNERS
Publiée le
Big Data
Data analysis
Hadoop
3 mois
30k-40k €
320-380 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Afin de renforcer les capacités d’analyse et de valorisation de la donnée au sein du groupe, nous recherchons un Data Analyst Big Data capable d’intervenir sur des environnements de données volumineuses et complexes. Le Data Analyst interviendra sur l’analyse, l’exploitation et la transformation de données issues de différentes sources afin de produire des insights à forte valeur ajoutée pour les équipes métiers et techniques. Il contribuera à la mise en place de solutions analytiques performantes sur des architectures Big Data , en collaboration étroite avec les équipes Data Engineering, IT et métiers. Mission Le Data Analyst interviendra sur des activités d’analyse, de traitement et de valorisation de données à grande échelle. Analyse et exploitation des données Collecter, analyser et exploiter de grands volumes de données issues de différentes sources. Concevoir et produire des analyses permettant d’identifier des tendances, comportements et opportunités business. Mettre en place des indicateurs de performance et tableaux de bord pour le suivi des activités. Traitement et préparation des données Manipuler et transformer des données volumineuses via des technologies Big Data (Spark / Hadoop) . Nettoyer, structurer et enrichir les données pour garantir leur qualité et leur exploitabilité. Collaborer avec les équipes Data Engineering pour optimiser les pipelines de données. Production d’insights et accompagnement métier Traduire les besoins métiers en analyses de données exploitables. Restituer les résultats sous forme de visualisations ou de recommandations. Accompagner les équipes métiers dans la compréhension et l’utilisation des analyses produites. Collaboration technique Travailler en collaboration avec les équipes Data Engineers, Data Scientists et IT . Participer à l’amélioration continue des outils et des processus d’analyse de données.
Offre d'emploi
Chef de projet data Confirmé
VISIAN
Publiée le
Budget Management
Data management
Data quality
1 an
40k-55k €
400-600 €
Paris, France
Descriptif du Poste Nous recherchons un chef de projet confirmé pour planifier, coordonner, et faire le suivi opérationnel du déploiement mondial des Data products au sein d'une division dédiée à la gestion de l'énergie. Le projet consiste à définir avec plusieurs métiers et pays (UK, US, Italie, Espagne au moins) un planning d'adoption de 3 à 4 solutions data (gestion des données fondamentales, gestion des données de production des centrales éoliennes et solaires, gestion des données de marché...) puis à coordonner ces déploiements avec les chefs de projets de chacun de ces produits et les pays concernés. Il faudra aussi coordonner les travaux d'une équipe dédiée à ces déploiements (3 à 4 personnes réparties dans les différents projets). Le chef de projet confirmé devra assurer le reporting, la gestion des risques, les budgets de déploiement.
Offre d'emploi
Data Scientist Computer Vision sur Alsace
EterniTech
Publiée le
Computer vision
Data science
Vertex AI
3 mois
Grand Est, France
Je recherche pour un de mes clients un Data Scientist Computer Vision sur Alsace Vos missions Développer des modèles de Computer Vision pour identifier les fonctions et contenus des objets dans des images Accompagner les équipes commerciales dans l’exploitation des outils de classification et d’analyse visuelle Déployer et maintenir des solutions de traitement d’images en production sur GCP (Vertex AI) Concevoir des pipelines et algorithmes permettant la visualisation en temps réel de scènes d’ameublement Collaborer avec les équipes métier pour traduire les enjeux business en solutions techniques et aider au déploiement en production. Assurer une veille technologique pour intégrer les dernières avancées en vision par ordinateur Profil recherché Compétences techniques : Maîtrise des technologies Computer Vision (détection, segmentation, classification d’images) Expérience avec Vertex AI et déploiement sur GCP Solides connaissances en machine learning et deep learning Maîtrise de Python et frameworks associés (TensorFlow, PyTorch…) Connaissance des pipelines de production et des bonnes pratiques MLOps Profil : Diplôme Bac+5 (Data Science, IA, Informatique ou équivalent) Expérience significative en Computer Vision de 2 ans minimum dans des contextes similaires Capacité à comprendre les enjeux business et à collaborer avec les équipes commerciales Autonomie, rigueur et curiosité technologique Projets innovants à forte valeur business Impact direct sur les ventes et l’expérience client Environnement technologique moderne et dynamique Télétravail flexible et équipe collaborative
Offre d'emploi
Consultant DataOps / Administrateur Hadoop
Craftman data
Publiée le
Ansible
CI/CD
Docker
La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
Offre d'emploi
Technical Security Architect – Cyber Defense Migration
RIDCHA DATA
Publiée le
API
cyberark
Gestion des accès privilégiés (PAM)
1 an
Paris, France
Contexte de la mission Dans le cadre du projet CD OneDC , le consultant interviendra au sein des équipes Cyber Defense afin d’accompagner la migration des services de sécurité vers les nouveaux data centers virtualisés . La mission se déroulera en collaboration avec les équipes produits, architectes et le chef de projet , dans un environnement international. Missions Le consultant interviendra sur les activités suivantes : Architecture et migration Piloter l’architecture technique de sécurité pour les plans de migration des services Cyber Defense. Contribuer à la migration du portefeuille de produits Cyber Defense vers les nouveaux data centers virtualisés. Identifier les dépendances entre les produits et services de cybersécurité. Garantir que les plans de migration sont compatibles avec les environnements techniques AXA. Travailler avec les équipes transverses afin d’assurer une migration fluide sans compromettre la sécurité. Conception et documentation Définir plusieurs options d’architecture et analyser leurs avantages et inconvénients. Expliquer les impacts de la consolidation des services (techniques, organisationnels et financiers). Participer à la mise à jour ou création des Low Level Design post-migration . Identifier les opportunités d’amélioration et de standardisation des architectures et solutions. Pilotage et coordination Structurer et enrichir le backlog projet et délivrer les livrables associés. Participer à la gouvernance architecture et produit du projet. Organiser et animer des sessions de communication avec les parties prenantes et équipes d’expertise. Collaborer avec le chef de projet pour définir un plan de migration réaliste avec estimations. Validation et contrôle Définir les critères et plans de monitoring de disponibilité des services . Mettre en place un plan de test pour valider les services pendant les phases de migration. Environnement technique Le consultant devra être capable d’avoir des discussions techniques avancées sur les sujets suivants : Cyber Security & Architecture Concepts de sécurité de l’information Évaluation des risques Architecture de sécurité Technologies de Cyber Defense Identity & Access Security Privileged Access Management (PAM) CyberArk Thycotic Password Complexity Checkers Cryptography & Key Management Hardware Security Modules (HSM) nCipher Thales Utimaco SecurityServer YubiHSM Data Protection DLP Solutions Forcepoint Microsoft Teramind Endpoint Security Antivirus / EDR CrowdStrike SentinelOne Symantec Microsoft Defender for Endpoint Network Security IPS / Firewall / DDoS protection Secure Web Gateway Shadow Cloud monitoring Secure Email Gateway Web Application Firewall Technologies associées : Cisco Firepower Palo Alto Networks Fortinet SkyHigh Zscaler SOC & Monitoring Log collection & SIEM ArcSight Microsoft Sentinel AMA Beats Cribl Infrastructure Troubleshooting systèmes d’exploitation Troubleshooting réseau
Offre d'emploi
DevOps & SRE Engineer (H/F)
RIDCHA DATA
Publiée le
Agile Scrum
Ansible
AWS Cloud
1 an
40k-51k €
370-440 €
Paris, France
Contexte de la mission Dans le cadre d’une stratégie de transformation vers le cloud public , une grande organisation internationale poursuit la modernisation de ses infrastructures et de ses plateformes de développement. L’objectif est de faire du cloud public la principale plateforme d’hébergement des applications , tout en renforçant les pratiques DevOps, la fiabilité des systèmes et l’automatisation des processus. Dans ce contexte, l’équipe Cloud / DevOps Platform souhaite renforcer son expertise afin d’améliorer : les plateformes CI/CD la Developer Experience la sécurité et la conformité des environnements Missions principales En tant que DevOps & SRE Engineer , vous interviendrez sur les plateformes DevOps et le backbone du Software Development Life Cycle (SDLC) . Vous évoluerez dans un environnement agile (SCRUM / SAFe) favorisant la collaboration, la transparence et l’amélioration continue. Automatisation et infrastructure Concevoir, développer et maintenir des automatisations d’infrastructure via Terraform et Ansible . Développer des intégrations et automatisations permettant d’améliorer la fiabilité et la performance des plateformes . Fiabilité et exploitation (SRE) Mettre en place et améliorer les processus d’automatisation et de gestion des incidents selon les principes Site Reliability Engineering (SRE) . Garantir la stabilité, la sécurité et la scalabilité des environnements. Evolution des plateformes Contribuer à l’évolution du backbone SDLC afin de répondre aux besoins métiers et aux exigences opérationnelles. Participer à l’amélioration des pratiques DevOps, sécurité et conformité . Collaboration et accompagnement Collaborer avec les équipes techniques, les équipes produit et les parties prenantes . Accompagner et mentorer les ingénieurs SRE et les équipes de développement . Environnement techniqueDevOps / CI-CD GitHub Enterprise Server (GHES) Pipelines CI/CD Pratiques DevSecOps Infrastructure as Code Terraform Ansible Cloud Microsoft Azure AWS Environnements hybrides et gestion de résidence des données Monitoring et exploitation Outils de monitoring et d’alerting Gestion des incidents Outils collaboratifs Jira Confluence Langages / scripting Bash PowerShell Méthodologie Agile : SCRUM / SAFe Culture DevOps et amélioration continue Approche SRE (Site Reliability Engineering)
Mission freelance
SAP Data Migration Manager – End-to-End
Xcede Limited
Publiée le
Data management
Data Strategy
Migration
12 mois
Paris, France
Nous recherchons un Responsable de la Migration de Données SAP parlant français et anglais pour piloter les activités de migration de données de bout en bout dans le cadre d’un programme stratégique SAP ! Responsabilités Définir et piloter la stratégie de migration des données SAP Gérer l’ensemble du cycle de vie de la migration : extraction, nettoyage, mapping, conversion, chargement et validation des données Coordonner les équipes fonctionnelles, techniques et métiers Garantir la qualité, la cohérence et l’intégrité des données Superviser les outils et méthodologies de migration Suivre les risques, les délais et les livrables liés aux données Une expérience en PLM (Product Lifecycle Management) est un plus. Si cette opportunité vous intéresse, envoyez votre CV à ou cliquez sur « Postuler maintenant » !
Offre d'emploi
Technicien Support Applicatif N2 (H/F)
RIDCHA DATA
Publiée le
API REST
Confluence
JIRA
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte de la mission Dans le cadre d’une augmentation importante de la charge de travail , l’équipe support doit être renforcée afin de maintenir un niveau de service optimal. Le technicien interviendra au sein de l’équipe support pour assurer le traitement des demandes clients et le bon fonctionnement des applications . Missions principalesSupport technique et applicatif Assurer un support de niveau 2 via un outil de ticketing . Diagnostiquer et résoudre les incidents techniques et fonctionnels . Garantir le respect des SLA liés au traitement des demandes de support. Gestion des comptes et accompagnement client Configurer les comptes clients sur les différentes applications . Accompagner les clients dans l’ intégration et l’utilisation de la solution en collaboration avec l’équipe Customer Success Management (CSM) . Rédiger les communications clients en cas d’incident ou d’évolution. Supervision et maintenance Déployer et maintenir les outils de supervision de la solution . Participer au suivi du bon fonctionnement des services applicatifs . Documentation et amélioration continue Rédiger et maintenir les procédures de support (niveau 1 et niveau 2) . Participer à l’ amélioration des processus de support . Support opérationnel Bien que les appels entrants soient principalement traités par un prestataire externe , intervenir ponctuellement en débordement si nécessaire. Livrables attendus Traitement des tickets de support niveau 2 Respect des SLA de traitement Documentation des procédures de support Communications clients lors d’incidents ou évolutions Suivi des outils de supervision applicative Compétences techniquesCompétences indispensables REST / SOAP – Confirmé – Impératif Bonne connaissance des outils de ticketing Compétences appréciées Jira Confluence Langues Anglais professionnel – impératif Environnement de travail Environnement éditeur logiciel Collaboration avec les équipes support, technique et Customer Success Méthodologie Agile (appréciée)
Offre d'emploi
Architecte DATA Sénior
KEONI CONSULTING
Publiée le
Big Data
SQL
Teradata
18 mois
20k-60k €
100-600 €
Lyon, Auvergne-Rhône-Alpes
"Contexte du besoin Nous recherchons un profil senior en architecture Data afin de nous accompagner dans la définition de l'architecture Data cible, la mise en oeuvre de la nouvelle plateforme Data dans un ecosysteme exisant. Le profil devra accompagner à la définition de l'architecture Data cible, la définition des standards, normes et bonnes pratique sur l'ensemble des socles Data et la mise en œuvre de la nouvelle plateforme Data. MISSIONS - Définir l’architecture cible Data : concevoir l’architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). - Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). - Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. - Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. - Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance). Le profil devra justifier : - d’une expérience confirmée dans la conception et la mise en œuvre de plateformes Data modernes, - d’une expertise en architecture Data (modèles de données, intégration, scaling, sécurité, qualité), - d’expériences significatives sur des projets incluant : la définition d’architectures cibles, la conception de modèles de données complexes, l’accompagnement de trajectoires de migration (Hadoop, Teradata ou plateformes équivalentes), la mise en place de data products et d’approches orientées produit." Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python" Livrables attendus Dossiers d'architecture cible, générale et détailée Cartographie des flux et sources de données Schéma d'intégration avec l'écosystem existant Documents de description des standards, principes et bonnes pratiques Feuille de route et trajectoire cible Ateliers et comptes rendus Support de présentation architecture et dossiers d'arbitrages Environnement technique - technologique Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python Compétences Data Conception d'architecture plateforme Data : - maitrise des architectures Data - maitrise patterns d'ingestion, stockage, transformation, exposition, - capacité à concevoir une architecture cible cohérente avec le SI existant" Modélisation des données : - concevoir des modèles conceptuels, logiques et physiques ; -harmoniser et rationaliser les modèles dans une logique Data Centric ; - appliquer des standards et bonnes pratiques (normalisation, typage, granularité, qualité)." Définition, conception et urbanisation de Produits Data Définition des standards, normes et bonnes pratiques Accompagnement, communication et alignement multi-acteurs "Compétence liée à l'environnement " "Expérience dans l'écosystème de la protection sociale (Retraite Complémentaire idéalement)"
Mission freelance
Data Scientist orienté Marketing- H/F
Wekey
Publiée le
Data science
6 mois
600-660 €
Niort, Nouvelle-Aquitaine
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes Data Scientist orienté Marketing H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à Niort dans le secteur des assurances. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : Cadrage des besoins métiers (Marketing) Identification de cas d’usage IA (segmentation, churn, appétence, reco produit…) Analyse et préparation des données Conception, entraînement et évaluation de modèles ML Implémentation en Python jusqu’à la mise en production Présentation et vulgarisation des résultats Force de proposition sur des approches innovantes
Offre d'emploi
Senior IT Project Manager – Programme Data
Gentis Recruitment SAS
Publiée le
Data governance
Data management
Service Delivery Management
12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme stratégique de transformation data à l’échelle internationale, notre client recherche un Senior IT Project Manager pour piloter le déploiement d’un backbone data B2B. Le programme vise à : standardiser les définitions de données B2B industrialiser les contrôles de qualité de données fiabiliser le reporting multi-pays aligner les processus Sales, Finance, Risk, Operations et Carbon fournir une source de vérité unique (single source of truth) Le périmètre couvre plusieurs entités internationales (Europe, Amériques, APAC) dans un environnement fortement gouverné. Objectifs de la mission Le consultant interviendra en responsabilité sur le pilotage global des activités IT liées au programme. Principales responsabilités : Déployer et améliorer les indicateurs et métriques B2B Piloter l’onboarding des parties prenantes Garantir le respect des objectifs, du périmètre, des délais, du budget et de la qualité Coordonner la communication projet et la gestion des stakeholders Piloter les risques, incidents et changements Assurer le steering IT et la delivery des développements selon la roadmap Coordonner les équipes IT locales, architectes et parties prenantes internationales Assurer le reporting auprès des instances de gouvernance Livrables attendus Planning de suivi projet Définition et suivi du périmètre Planification capacitaire Reporting de gouvernance Suivi des risques et plans de remédiation Points différenciants (fortement valorisés) Expérience programmes data backbone / data governance Contexte grands groupes internationaux Coordination multi-pays Interaction Data Office / Product Owners Environnements fortement gouvernés
Offre d'emploi
Lead Developer .NET / Vue.js
RIDCHA DATA
Publiée le
.NET
API REST
Vue.js
1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d’un projet applicatif stratégique , un Lead Developer .NET / Vue.js est recherché afin de piloter techniquement une équipe de développement. Le Lead Developer interviendra au sein d’une squad composée de 5 personnes : 2 développeurs Full Stack 1 Architecte 1 développeur Backend (mi-temps) 1 alternante L’objectif est d’assurer le pilotage technique des développements , garantir la qualité des livrables et accompagner l’équipe dans la réalisation des projets. Missions principalesPilotage technique Encadrer techniquement les développeurs afin de garantir le respect des standards et exigences technologiques . Participer aux choix techniques et à l’architecture applicative . Assurer la qualité du code et des bonnes pratiques de développement . Développement Participer activement aux développements applicatifs en .NET et Vue.js . Contribuer au développement et à la maintenance des applications existantes . Intervenir sur le développement d’ API et d’applications client lourd . Coordination et suivi Identifier et anticiper les points bloquants techniques . Assurer un reporting régulier auprès des parties prenantes du projet. Accompagner les membres de l’équipe dans leur montée en compétences. Environnement technique .NET Vue.js API REST Architecture applicative Développement client lourd Organisation du travail 3 jours sur site à Lyon 2 jours en télétravail
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1726 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois