L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 457 résultats.
Offre d'emploi
Analyste de tests fonctionnel -QA H/F
ADONYS
Publiée le
ISTQB
QA
Squash TM
3 ans
40k-45k €
350-450 €
Paris, France
Dans le cadre d'une régie longue durée, nous sommes à la recherche d'un Analyste de tests fonctionnel H/F Aperçu du contexte de mission : Notre client recherche un analyste de tests fonctionnel autonome capable de travailler en équipe, équipes réparties sur l'ensemble du territoire. Vos missions: Participer à l'élaboration du plan de tests Rédiger des scénarios de tests fonctionnels Exécuter des tests fonctionnels, reporter et suivre les anomalies détectées Fonctionnement en mode Agile (Scrum). Exemples de sujets : Recettes fonctionnelles d’applications internet/intranet. Qualification des maintenances évolutives et correctives sur les outils de prospections Qualification des maintenances évolutives et correctives sur l'éditique de la banque Renfort sur les projets en cours ou à venir : outils d'instruction de crédits immobiliers, outil de GED. Maitrise des outils : JIRA / XRAY Squash TM / Redmine Teams M365
Offre d'emploi
Expert Cloud GCP / S3NS
CAT-AMANIA
Publiée le
Apigee
Artifactory
CI/CD
Île-de-France, France
Objectif poursuivi pour cette mission L’objectif de cette mission est de renforcer l’équipe technique pour : • • Participation au Design & Implémentation de la landing zone S3NS (Organisation, Auth & Habilitation, Réseau, Sécurité, Chiffrement, Gestion des clés & secrets, intégration avec le SI Bpifrance) • Participation à la mise en place des briques de sécurité (Cloisonnement, FW, Bastion Wallix, Intégration au SOC Palo Alto) • Intégration avec les briques de service du SI (Observabilité Datadog, Event Confluent, Atlas MongoDb, Solution Finops en dev spe, SSO Ping Identity, Cnapp Prisma, Sauvegarde Commvault...) • Abstraction des services & Intégration à la plateforme de service (0 ticket, Automatisation par event & API) • Accompagnement à la migration des premières applications sur le périmètre Assurance Export (28 applications • Architecture Cloud Sécurisée : Expertise dans la conception et l’implémentation de Landing Zones Cloud multi projet avec un fort accent sur la sécurité (Firewall, IAM, régulation). • Réseaux cloud : Maîtrise des concepts de réseaux sur un environnement GCP, incluant VPC, VPN, pare-feu NAT, etc. • Certification GCP • API & Plateforming : Capacités dans l’intégration et la gestion des API (par ex, Apigee). • Approche DevSecOps : Connaissance des outils d’intégration/delivery continue et des pratiques d’automatisation pour assurer la scalabilité et le MCS. • Connaissance méthodologie SAFE.
Offre d'emploi
Analyste Cybersécurité - H/F
DAVRICOURT
Publiée le
Cybersécurité
35k-40k €
Auzeville-Tolosane
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) analyste cybersécurité pour l'un de nos clients du secteur retail/grande distribution. Vous interviendrez sur le site client situé à Toulouse. À ce titre, vos missions quotidiennes seront les suivantes : - Faire l'analyse des évènements de cybersécurité (SOCN3) ; - Traiter les événements de sécurité détectés sur les sites internet (via le SIEM Splunk) ; - Investiguer les événements remontés par les équipes de production ou les outils automatiques ; - Contribuer à l'enrichissement du SOC ; - Produire des statistiques et synthèses utiles pour améliorer notre posture de sécurité ; - Définir l'architecture la plus adaptées, challenger et optimiser les choix de design cybersécurité ; - Reproduire et mettre en place une infrastructure (test en labo) ; - Assurer le support technique N3 si nécessaire auprès des équipes de productions ; - Adapter les référentiels de sécurité (ANSSI, autorités européennes) à notre contexte ; - Conseiller les équipes sur les choix technologiques sécurisés ; - Assurer une veille constante sur les menaces émergentes, les vulnérabilités critiques, les recommandations de l'ANSSI, et les tendances de l'écosystème cyber.
Offre d'emploi
Data analyst (Databricks) H/F
HAYS France
Publiée le
La Ferté-Bernard, Pays de la Loire
Vos responsabilités incluent notamment : Concevoir et développer un modèle de données global pour le périmètre France Exploiter les bases de données Corporate sous Databricks (couche Silver) Réaliser les transformations de données jusqu'à la couche Gold Consolider des données métiers variées : Finance, Comptabilité, Logistique, Qualité, Production, RH Participer à la conception des modèles analytiques, au développement des indicateurs, ratios financiers et KPI métiers Développer et maintenir des dashboards Power BI à destination des équipes opérationnelles et managériales Contribuer à la standardisation, à la fiabilité et à la gouvernance de la donnée au niveau France Collaborer étroitement avec le futur profil Contrôle de Gestion / BI
Offre d'emploi
Ingénieur Infrastructure Cloud AWS-KBS
KEONI CONSULTING
Publiée le
Plan de reprise d'activité (PRA)
Run
Transport Layer Security (TLS)
18 mois
20k-60k €
100-500 €
Bordeaux, Nouvelle-Aquitaine
CONTEXTE Dans le cadre de sa stratégie de modernisation et de sécurisation de ses infrastructures numériques, le client souhaite s’entourer d’un Ingénieur Infrastructure Cloud AWS spécialisé dans l’intégration, l’exploitation et l’évolution de solutions Cloud sur AWS. Le profil devra être en mesure d’assister les équipes du client tant sur la conception et le déploiement de nouvelles architectures que sur la maintenance opérationnelle des services existants, dans une démarche DevSecOps, axée sur la performance, la sécurité, la fiabilité et l’optimisation des coûts L’Ingénieur Infrastructure Cloud AWS est g arant du déploiement, de la configuration et de la maintenance opérationnelle des environnements cloud AWS, il assure la disponibilité, la performance et la sécurité des services d'infrastructure. MISSIONS Participer à : Intégration et MCO Cloud A. Intégration et Déploiement • Conception d’architectures AWS sécurisées • Déploiement d’environnements • Paramétrage de services AWS • Mise en œuvre et optimisation notamment d’EKS : nodes, autoscaling, gestion des pods, namespaces, ingress, network policies, etc. • Industrialisation via IaC (Terraform) B. MCO / Run • Supervision et maintenance corrective, préventive et évolutive • Mise à jour des composants : Kubernetes, drivers, nodes, AMIs, OpenSearch, drivers DB, ALB/ingress, etc. • Gestion des incidents avec SLA détaillés proposés (détail exigé) • Monitoring / Observabilité / Alerting (technique + métier) • Gouvernance et registry d’images Docker (sécurité, scan, policy) • Gestion des coûts et optimisation (FinOps) C. Sécurité et Conformité • Zero Trust / IAM Roles / RBAC Kubernetes / Key rotation • Scan de vulnérabilités images, dependencies, clusters • Encryption au repos/en transit (KMS) • Conformité RGPD / CNIL / Cloud Act • Proposition d’architecture Security-by-Design D. Documentation et Transfert de compétences • Documentation détaillée des architectures, outils, procédures, PRA, sauvegardes, patterns, runbooks d’exploitation • Formations techniques ciblées (EKS, observabilité, pipeline CI/CD, sécurité) • Engagement sur transfert de compétences avec plan structuré livrables techniques : participer à la livraison entre autres de • Document d'architecture AWS avec schémas • Scripts Terraform documentés • Configuration complète EKS (clusters, nodes, namespaces) • Procédures de déploiement • Dashboards de monitoring Grafana/CloudWatch • Guide d'exploitation détaillé • Plan de transfert de compétences • Documentation des procédures • Étude de portabilité multicloud • Plan de réversibilité • Scripts de migration • Documentation technique de sortie • Indicateurs coûts et optimisation Compétences clés ettendues : · Déploiement et administration de services AWS core (EC2, VPC, S3, RDS, Aurora, ECS) · Gestion réseau AWS : Subnets, NAT Gateway, Transit Gateway, Route53, ALB/NLB · Administration Kubernetes/EKS : mise à jour des nodes, AMIs, drivers, gestion des pods · Mise en œuvre des politiques de sécurité réseau (SG, NACL, WAF, Shield) · Supervision et maintien en condition opérationnelle (MCO/RUN) avec gestion des SLA · Mise à jour et patching des composants (OpenSearch, drivers DB, ingress controllers) · Gestion des sauvegardes, PRA et procédures de reprise d'activité · Chiffrement des données au repos et en transit (KMS, TLS) · Automatisation via scripts (Bash, Python) et IaC (Terraform) · Rédaction de documentation technique et de guides d'exploitation
Mission freelance
Business Analyst – Corporate Crédit/Ftob
ABSIS CONSEIL
Publiée le
AMOA
1 an
580-610 €
Île-de-France, France
Contexte Dans le cadre d’un programme de transformation digitale d’envergure au sein d’un grand groupe, une plateforme stratégique dédiée à la gestion du crédit corporate fait l’objet d’évolutions continues. Ce programme vise à industrialiser et moderniser l’ensemble de la chaîne de valeur du crédit, de l’origination jusqu’au suivi post-octroi, à l’échelle internationale. Il s’inscrit dans un environnement fortement réglementé nécessitant une standardisation des processus, une urbanisation du système d’information, ainsi qu’une forte intégration avec les outils existants (core banking, data, risk, reporting). La plateforme centrale, déjà déployée avec de multiples modules en production, constitue un levier clé en matière de conformité réglementaire, d’efficacité opérationnelle et de stratégie data. Dans ce contexte, nous recherchons un(e) consultant(e) pour accompagner la maintenance évolutive et la transformation continue de cette application critique. Missions Au sein d’une équipe projet transverse (métiers, IT, risques), vous interviendrez sur les axes suivants : Analyse & cadrage Recueillir, analyser et formaliser les besoins métiers Identifier les impacts fonctionnels et techniques liés aux évolutions Assurer l’alignement avec les exigences réglementaires et les contraintes du SI existant Spécifications fonctionnelles Rédiger les spécifications fonctionnelles détaillées (interfaces, règles de gestion, flux de données) Décrire les cas d’usage et les parcours utilisateurs Garantir la cohérence globale des livrables avec les besoins exprimés Tests & validation Concevoir les cas de tests (scénarios, données, critères d’acceptation) Participer à l’exécution des tests fonctionnels Piloter les campagnes de recette utilisateur (UAT) Déploiement & accompagnement Coordonner les déploiements en production Contribuer à la gestion du changement (communication, formation) Assurer le support post mise en production (after-care) Documentation Rédiger la documentation utilisateur et technique Produire des guides d’utilisation clairs et opérationnels Veiller à la bonne adoption des nouvelles fonctionnalités Résultats attendus Une plateforme stable, performante et conforme aux exigences réglementaires Des évolutions intégrées de manière fluide et sécurisée Une documentation complète et exploitable Une amélioration continue du processus de crédit et une réduction des risques opérationnels
Mission freelance
Cloud engineering Landing Zone SMTP Expérimenté (450€ MAX)
BEEZEN
Publiée le
Google Cloud Platform (GCP)
SMTP (Simple Mail Transfer Protocol)
1 an
360-450 €
Île-de-France, France
● Concevoir une architecture SMTP Postfix intégrée à Google Workspace (relais HA, split/dual delivery). ● Configurer le flux, le filtrage et le routage (restrictions smtpd, header/body checks, queues, transport_maps). ● Sécuriser et authentifier la messagerie (SPF, DKIM/OpenDKIM, DMARC, ARC). ● Chiffrer les échanges SMTP (TLS opportuniste/forcé, certificats, DANE/TLSA). ● Industrialiser le déploiement en IaC/GitOps (Terraform, Ansible/SaltStack, CI/CD DNS TXT/MX). ● Piloter la délivrabilité et la réputation (bounces, RBL, rate-limiting). ● Observer et diagnostiquer (centralisation logs Loki, dashboards, postscreen). ● Mettre en place le content filtering et la conformité (ex. Mimecast, POLP, SASL). ● Documenter et standardiser (runbooks, remédiation, traçabilité des changements).
Offre d'emploi
Expert / TechLead GCP - Toulouse
Groupe Aptenia
Publiée le
Google Cloud Platform (GCP)
Google Kubernetes Engine (GKE)
IAM
6 mois
Toulouse, Occitanie
Nous recherchons un Expert / Tech Lead GCP pour intervenir sur des projets stratégiques à forte valeur. Le rôle combine architecture cloud, DevOps/SRE et sécurité, avec une forte implication sur la conception et le delivery de solutions sur Google Cloud Platform. Vous évoluerez au sein d’une équipe cloud structurée, en lien avec différentes parties prenantes. Expertise GCP, Kubernetes (GKE), Terraform et sécurité (IAM, KMS, Zero Trust) requises. Poste basé en région toulousaine, avec perspective d’intégration en CDI après 6 mois de prestation.
Offre d'emploi
Business Analyst Loan IQ
VISIAN
Publiée le
Cloud
Méthode Agile
1 an
Île-de-France, France
Contexte Dans le cadre de la transformation de la Credit Chain front to back et la maintenance de la plateforme de Loan Servicing Atlentic Loan IQ, le business analyst sera en charge notamment : Analyse et pilotage des travaux sur le projet Analyse et pilotage des releases BAU de production de la plateforme Atlentic LoanIQ La plateforme Loan Servicing Atlentic Loan IQ est basée sur le progiciel de marché LoanIQ. Elle comprend également des composants développés au sein d’une grande institution bancaire : des applications satellites, une plateforme de reporting basée sur Business Object, et des interfaces connectées avec des systèmes amonts et avals. La plateforme est organisée en Portfolio Teams visant à assurer l’administration du système, le support aux utilisateurs, la maintenance des applications utilisées par les gestionnaires des Back Offices et la gestion des projets associés. Missions Conception et design de solutions avec les parties prenantes du projet : la stratégie, le produit et le process Analyse du besoin, pilotage et suivi auprès des équipes de développement, et intégration des changements dans le SI (intégration et tests E2E – End To End) Expertise sur les spécifications fonctionnelles Expertise et pilotage des meetings avec l'équipe offshore, les stakeholders et les équipes IT Pilotage et implémentation de la stratégie de déploiement, change management et formation des utilisateurs
Mission freelance
LEAD BUSINESS ANALYST F/H (Niort)
Pickmeup
Publiée le
Agile Scrum
Angular
API
1 an
450-550 €
Niort, Nouvelle-Aquitaine
Nous recrutons un Lead Business Analyst pour rejoindre une grande organisation française engagée dans une transformation ambitieuse de son système d’information. 👉 Un rôle transverse, stratégique et très orienté métier, au cœur des enjeux de transformation, relation client et urbanisation du SI. 🎯 Le rôle En lien direct avec les équipes métier, les architectes et les squads agiles, vous serez le référent fonctionnel d’un domaine stratégique. Votre mission : ➡️ structurer et faire évoluer la vision fonctionnelle du SI ➡️ garantir la cohérence des solutions construites ➡️ accompagner les métiers dans la transformation de leurs pratiques et outils Vous intervenez notamment sur des sujets liés à : la relation client, l’orchestration des flux, le pilotage des activités, la transformation opérationnelle. 🧠 Vos responsabilités Porter la vision fonctionnelle et contribuer à la trajectoire SI Concevoir un SI cohérent, urbanisé et lisible Challenger les besoins métier et proposer des solutions pragmatiques Modéliser processus, flux, données et objets métiers Collaborer avec les architectes, Product Owners, développeurs et équipes métier Accompagner plusieurs squads dans un environnement agile et transverse 💡 Bonus : expérience CRM / relation client, assurance / prévoyance, gestion d’activité ou flux métier.
Mission freelance
PHP Symfony Culture IA et DevOps
Kleever
Publiée le
Architecture
Domain Driven Design (DDD)
PHP
12 mois
500-600 €
Paris, France
Développeur PHP Symfony Senior (Backend / DDD) Contexte : Nous recherchons un développeur PHP Symfony senior pour rejoindre une équipe senior. L’équipe participe à la modernisation générale de la Stack (migration vers cloud, découpage d’applications, CDC, intégration au Legacy). Fort niveau d’adhérence entre équipes produit, SRE et autres services. Missions principales : Développer et maintenir des API backend en PHP / Symfony selon les principes DDD. Concevoir et implémenter des agrégats, events et workflows asynchrones (RabbitMQ). Participer au design d’architecture (hexagonal, CQRS) et aux décisions techniques de l’équipe. Assurer la qualité : TDD, tests unitaires, fonctionnels et end-to-end, revues de code. Collaborer étroitement avec les SRE pour le debugging infra et le déploiement (CI/CD, containers, monitoring). Contribuer au 70 % Build / 30% run / résolution d’incidents sur des services critiques et à la maintenance corrective. Faciliter la communication inter-équipes : produire ADRs, clarifier langages métiers/événements. Profil recherché (compétences techniques) : Excellente maîtrise de PHP et Symfony (développement d’API REST/GraphQL, bonnes pratiques Symfony). Connaissances DDD, BDD, architecture hexagonale, CQRS et conception d’agrégats. Vous cherchez une mission Craft pour changer de poste. Expérience sur systèmes asynchrones (RabbitMQ, CDC) et mécanismes d’événements. Tu es sur une mission depuis des mois tu sens que ton équipe ne va plus dans le sens de l’histoire. Tu fais énormément de veille tout en étant pragmatique. Tu ne reste pas sur tes acquis malgré un niveau d’expertise avancé. Tu as envie de partager ton expertise avec tes pairs a Tu as déjà travaillé sur des équipes d’expert ou participer a la création partie tech d’un startup (Pas solo) de A a Z. Bonnes pratiques de tests : unitaires, fonctionnels, E2E ; expérience TDD appréciée. Confort avec cloud AWS ou GCP ou Azure, containers, CI/CD et debugging infra (logs, commandes Linux, SRE collaboration). Notions d’outils d’observabilité et monitoring (metrics, alerting). Modalités : Rythme : sprints Scrum, forte exposition au run et incidents. Environnement : PHP/Symfony principalement, nouvelles apps en Symfony Équipe technique engagée, beaucoup d’initiatives produit et technique, opportunités de modernisation et d’impact sur produits critiques. Mission longue durée pas de limite, préavis de 1 mois accepté Pourquoi rejoindre ? Organisation en 3 J / 2 J - Possibilité de full TT négociable si hors IDF (Idéalement avec accès direct a paris - Lyon, Lille, tours, bordeaux ) le candidat doit être basé en France. Merci de ne pas postuler si vous êtes basé à l'étranger. ESN merci de n'envoyer que des experts, pas de débutant. Tarif indicatif et reste a discuter selon expertise. Merci de proposer une offre réaliste par rapport à votre niveau d'expertise. Je serais ravi d'échanger sur cette mission.
Mission freelance
Data engineer GCP
ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)
1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
Mission freelance
Assistance Technique IA
CAT-AMANIA
Publiée le
Copilot
GenAI
12 mois
700-840 €
Paris, France
Notre client cherche à structurer ses projets de valorisation des données et d’innover au travers de l’accès à différentes IA. L’équipe Gouvernance et mise en œuvre de l'IA, est à ce titre, en charge de la mise en œuvre de solutions d’IA génératives pour l’ensemble des collaborateurs Elle a en charge la mise en service et la maintenance d’un Hub et d'un portail IA permettant : - de mettre à disposition sur le poste de travail de chaque collaborateur, des assistants d’IA pré-paramétrés par typologies d’usage et par types de droits - de permettre à chaque utilisateur du portail IA de fabriquer de nouveaux assistants qui pourront être mis à disposition d’autres collaborateurs (logique Marketplace avec droits d’accès) - de permettre l’accès en direct à des IA depuis des logiciels tiers de l’entreprise (CRM, IDE Développement…) ou depuis des applicatifs métiers via appel d'API. - de mettre à disposition des modules de formation web aux bons usages de l’IA ainsi qu’une FAQ pour accompagner les utilisateurs du portail IA A ce titre, d’un point de vue technologique, nous nous appuyons, actuellement, sur le cloud Microsoft AZURE et sur une solution open source pour le portail IA (RAISE) basée sur Python, React, Langchain, Langgraph, Postgresql, Pgvector et docker. Au cours de la mission l'hébergement du portail IA sera amené à basculer on-premise. Par ailleurs l’équipe Gouvernance et mise en oeuvre de l'IA est en charge : - de gouverner l’utilisation des IA au sein de l’entreprise - de définir une stratégie d’utilisation des IA génératives en fonction des risques ou de contraintes portées par les données sources - d’optimiser les coûts d’utilisation à tout moment dans un contexte Cloud (FINOPS / MLOPS) - de mettre en place une chaîne CI/CD des projets IA
Offre d'emploi
Business Analyst DATA
QUANTEAM
Publiée le
Python
SQL
3 ans
Paris, France
Le consultant doit posséder de solides compétences en Business Analysis et en Data, de très bonnes capacités de structuration et de communication, et être capable de diriger des équipes. > 5 ans d'expérience et le consultant doit être titulaire d'un diplôme d'ingénieur (obligatoire) Le ou les consultants proposés pour cette mission doivent posséder une vaste expérience dans les activités décrites ci-dessous, ainsi que d'excellentes capacités d'analyse, de la rigueur, et de bonnes aptitudes à l'écoute et à la communication. Le ou les consultants proposés pour cette mission doivent posséder une vaste expérience dans les activités décrites ci-dessous, ainsi que : Bac +5 et diplôme d’ingénieur obligatoire Solides expériences en tant que BA dans des équipes IT. Fondamentaux du métier de BA (compréhension des besoins, spécifications, tests et automatisation des tests, animation d’atelier…) Solide expérience sur des projets data : modélisation de data model, SQL, architecture data, analyse des data approfondie Dynamisme et proactivité dans la démarche d’analyse ou projet, structuré et bonne expression orale. Anglais requis. Capacité de travail avec plusieurs équipes dans un contexte de transformation multi pays 5 ans d’expérience minimum
Offre d'emploi
Data Quality Analyst h/f
Ela Technology
Publiée le
Alteryx
Batch
ETL (Extract-transform-load)
6 mois
Seine-Saint-Denis, France
🎯 Contexte & Enjeux Dans le cadre d’un programme de transformation d’envergure autour des processus KYC , une équipe dédiée à la qualité des données intervient au cœur du dispositif pour sécuriser la migration vers un outil cible commun et garantir l’intégrité des données entre plusieurs systèmes historiques. L’enjeu est double : accompagner les déploiements tout en assurant une continuité opérationnelle sans rupture , dans un environnement international et fortement industrialisé. Suite à un départ à la retraite programmé en milieu d’année , une mission clé est ouverte afin d’assurer la reprise, la stabilisation et l’évolution des processus existants. 🚀 Mission Au sein de l’équipe Data Quality, vous êtes garant(e) de la fiabilité des données , du bon déroulement des réconciliations et de la continuité de la chaîne de valeur , depuis les systèmes legacy jusqu’à la solution cible. Votre mission s’articule autour de deux piliers équilibrés : 🧩 50 % Développement | ⚙️ 50 % Production & Pilotage opérationnel Vos responsabilités principales Qualité & Migration des données Piloter les réconciliations quotidiennes , en mode run the business , pour assurer un flux de données continu. Piloter les réconciliations hebdomadaires , préparer et suivre les indicateurs de performance (KPI) . Superviser les processus de bulk permettant la remédiation des données dans l’outil cible. Garantir la conformité des données migrées tout au long du programme. Développement & Maintenance Maintenir, faire évoluer et sécuriser un socle VBA existant (lecture, débogage, amélioration, mises en production). Assurer la stabilité et la traçabilité des évolutions de code. Environnement collaboratif Assurer l’ administration et la migration de SharePoint vers la version Online : Organisation documentaire Gestion des accès et permissions Migration des environnements et livrables. Gouvernance & Continuité opérationnelle Être le/la garant(e) de la rigueur opérationnelle , du respect des SLA et des processus. Veiller à ne jamais interrompre l’activité des Task Forces internationales (Inde & Portugal). Documenter les procédures et accompagner la structuration des processus pérennes vers l’architecture cible.
Offre d'emploi
Business Analyst SharePoint Online – Refonte Intranet (H/F)
RIDCHA DATA
Publiée le
Backlog management
Business Analyst
SharePoint
1 an
Île-de-France, France
Contexte de la mission Dans un contexte international et multi-entités , une grande organisation lance la refonte complète de son intranet basé sur SharePoint Online (Microsoft 365) . L’objectif est de mettre en place une plateforme moderne, unifiée et centrée utilisateur , permettant : un accès simplifié à l’information une meilleure collaboration entre les équipes une communication interne harmonisée à l’échelle mondiale Le Business Analyst jouera un rôle central d’interface entre les équipes métiers, les équipes IT et les parties prenantes internationales afin de garantir que la solution réponde aux besoins fonctionnels tout en respectant les standards du groupe. Objectifs du poste Recueillir et analyser les besoins métiers liés à la refonte de l’intranet. Contribuer à la définition d’une expérience utilisateur cohérente et homogène dans un environnement international. Traduire les besoins métiers en exigences fonctionnelles exploitables par les équipes techniques . Accompagner les métiers tout au long du projet : cadrage, conception, recette et déploiement. Missions principalesAnalyse & cadrage Identifier et cartographier les parties prenantes (métiers, communication, IT, régions/pays). Animer des ateliers de recueil des besoins (workshops, interviews, comités). Analyser les processus existants et identifier les axes d’amélioration. Formaliser les besoins sous forme de : use cases user stories parcours utilisateurs Conception fonctionnelle Rédiger les livrables fonctionnels : expressions de besoins spécifications fonctionnelles backlog produit user stories et critères d’acceptation Définir les modèles de données fonctionnels : métadonnées taxonomies navigation Contribuer à la définition de l’architecture fonctionnelle de l’intranet : sites hubs pages contenus Collaborer avec les UX/UI designers sur l’ergonomie et l’expérience utilisateur. Coordination & suivi Être l’interface entre les équipes métiers et techniques . Travailler avec les équipes techniques sur : SharePoint Online Power Platform SPFx si nécessaire Participer à : la priorisation du backlog la planification des évolutions Accompagner les phases de recette fonctionnelle : stratégie de tests cas de tests UAT Contribuer à la conduite du changement : supports utilisateurs communication interne formations. Contexte international Prendre en compte les enjeux multiculturels et multilingues . Assurer l’alignement entre besoins locaux et standards globaux . Interagir avec des équipes internationales en anglais . Livrables attendus Dossiers de cadrage fonctionnel Spécifications fonctionnelles User stories Parcours et personas utilisateurs Backlog priorisé Cahiers de recette Comptes rendus d’ateliers Environnement fonctionnel & technique Plateforme SharePoint Online (Microsoft 365) Outils associés Microsoft Teams Power Automate Power Apps Viva (Connections, Engage) Azure AD Méthodologie Agile / Scrum Compétences requisesCompétences fonctionnelles Analyse des besoins métiers Modélisation de processus Conception de parcours utilisateurs Rédaction de spécifications fonctionnelles Animation d’ateliers métiers Compétences techniques (non développement) Très bonne connaissance de SharePoint Online architecture sites métadonnées gouvernance Bonne compréhension de l’écosystème Microsoft 365 Sensibilité UX et ergonomie digitale Compétences comportementales Excellentes capacités de communication Esprit de synthèse Capacité à structurer l’information Autonomie et rigueur Sens du service Capacité à évoluer dans un environnement international Langues Anglais professionnel courant indispensable Français requis
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1457 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois