L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 756 résultats.
Mission freelance
Consultant Power BI/Azure Data Factory
OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI
1 an
450-500 €
Paris, France
BESOIN URGENT !!! Dans le cadre d’un projet de transformation data, notre client recherche un consultant data orienté BI et data engineering. Secteur immobilier. Missions Développement et maintenance de pipelines avec Azure Data Factory Modélisation de données pour les besoins analytiques Création de dashboards Power BI (DAX, performance) Amélioration de la qualité et des flux de données Participation à l’industrialisation (CI/CD, DevOps) Interaction avec les équipes métiers Profil recherché 3 à 5 ans d’expérience en Data Engineering / BI Très bonne maîtrise d’Azure Data Factory Bonne maîtrise de Power BI (modélisation, DAX) Connaissance des environnements DevOps Autonomie et bon relationnel
Mission freelance
Cyber‑Resilience Program Lead / PRA–PCA / DORA Compliance
Phaidon London- Glocomms
Publiée le
Cybersécurité
DORA
Gestion des accès privilégiés (PAM)
6 mois
400-550 €
Nice, Provence-Alpes-Côte d'Azur
Définition et pilotage de la stratégie de cyber‑résilience (PRA/PCA, risques ICT). Supervision de la conformité DORA : risques ICT, cartographie des actifs, tests de résilience, documentation, audits. Définition et mise en place du PRA orienté cyber (RTO/RPO, scénarios majeurs, clean‑room, gestion de crise). Exécution du premier PRA cyber : tests, performance, sécurité, sauvegarde, documentation. Gestion des actifs critiques, dépendances, SLA, prestataires ICT ; validation des stratégies de sauvegarde (immutabilité, air‑gap). Gouvernance opérationnelle, reporting exécutif, tableaux de bord et supports COMEX/COPIL.
Mission freelance
Architecture Solution - Expert Cloud AWS
Codezys
Publiée le
Amazon S3
AWS CloudFormation
12 mois
Malakoff, Île-de-France
Accompagnement sur l’identification, la rédaction et l’adoption de patterns d’architecture : ce rôle vise à harmoniser les pratiques architecturales, améliorer la cohérence technique entre les différents projets, et assurer la conformité des solutions aux standards internes. Le périmètre couvre les environnements Cloud (notamment AWS) ainsi que les infrastructures on-premise. L’architecte pourra également être sollicité pour accompagner ponctuellement des projets clients, en apportant une expertise approfondie en architecture ou en participant à la mise en œuvre concrète des patterns définis. LOGISTIQUE : Localisation : Malakoff Date de début : 9 mars 2026 Date de fin prévue : 15 septembre 2026 (renouvelable) Niveau de séniorité : Expert Panel concerné : Transformation Type de prestation : Expertise – Intégration – Conseil Certifications requises : AWS Solutions Architect Objectifs et livrables : Environnement technique de la prestation : Cloud public (AWS) et solutions SaaS Cloud privé on-premise Plateformes de virtualisation et de conteneurisation Middleware de streaming et d’intégration Écosystèmes DevOps et CI/CD Environnement industriel Prestation attendue : Rédaction et évolution des patterns : Analyser les besoins techniques Concevoir, formaliser et maintenir des patterns d’architecture (Cloud AWS, infrastructures on-premise, solutions hybrides, réseaux, sécurité, data…) Garantir la cohérence des patterns avec les standards de l’entreprise et les contraintes opérationnelles Collaborer avec les experts techniques pour valider la pertinence, la maturité et la faisabilité des patterns Assurer la communication et la diffusion des patterns auprès des équipes techniques et projets Travailler en étroite collaboration avec les équipes d’infrastructure, réseau, sécurité et DevOps Support et accompagnement des projets : Fournir un soutien architectural lors de certains projets clients Aider à l’adoption des patterns définis Participer à des revues d’architecture (design reviews, comités d’architecture…) Conseiller les équipes projets pour garantir le respect des bonnes pratiques et des standards architecturaux
Mission freelance
Chef de projet Repos & Securities Lending
NEXORIS
Publiée le
SWIFT
1 an
600-740 €
Île-de-France, France
Notre client, recherche un Chef de Projet Repos & Securities Lending (H/F) dans le cadre d'une mission en BFI Dans un contexte de transformation internationale des activités Capital Markets Operations, la mission consiste à piloter plusieurs projets stratégiques liés aux activités Repo, Securities Lending et Collateral Management, en coordination avec les équipes Middle Office, Back Office, IT et Front Office. - Pilotage de plusieurs projets stratégiques à dimension internationale - Reporting et remontées au management - Recueil et rédaction des expressions de besoins MO / BO en coordination avec le FO - Animation et coordination des groupes de travail (MO, BO, IT, FO) - Interface fonctionnelle avec les équipes IT - Validation de la bonne adéquation entre besoins métiers et solutions IT - Réponse aux questions fonctionnelles des équipes IT - Coordination de la rédaction des cahiers de tests fonctionnels - Organisation et pilotage des phases de tests utilisateurs (UAT) - Accompagnement des utilisateurs lors des tests - Suivi du planning (expressions de besoins, tests, livrables) - Mise à jour des documents de suivi projet
Offre d'emploi
Développeur fullstack Java Vue
ICSIS
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java
3 ans
30k-45k €
350-450 €
Lille, Hauts-de-France
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - Java 11+, SpringBoot, Vue JS, Javascript, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +
Offre d'emploi
DevOps / SysOps Senior (H/F)
Amiltone
Publiée le
DevOps
40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Intégré à nos équipes sur notre Factory ou chez nos clients, nous recherchons un DevOps / SysOps senior. Vous rejoignez le projet dès sa phase de démarrage, participez à la définition de l'architecture, puis assurez à la fois les activités de BUILD et de RUN. Votre rôle - Vous construisez les environnements Cloud - Vous automatisez les déploiements - Vous garantissez la stabilité, la supervision et l'exploitation des applications - Vous travaillez en binôme avec les équipes de production, avec un rôle de référent technique et de transmission Vos missions - Construire les environnements Cloud via Terraform (cluster OpenStack) - Automatiser les déploiements et configurations avec Ansible - Mettre en place et maintenir les pipelines CI/CD (Jenkins, GitLab, Sonar, Nexus) - Déployer et exploiter la supervision et l'observabilité (Prometheus, Grafana, Loki) - Assurer le suivi des systèmes d'exploitation Linux - Collaborer étroitement avec les équipes de développement - Accompagner et faire monter en compétence les équipes OPS Environnement technique : - Linux (système & réseau) - Cloud public ou privé - Terraform - Ansible - Jenkins - Grafana
Offre d'emploi
Chef de Projet Infrastructure Datacenter (H/F)
OCSI
Publiée le
AIX (Advanced Interactive eXecutive)
Cisco
DataCenter Infrastructure Management (DCIM)
3 ans
Paris, France
Nous recherchons un Chef de Projet Infrastructures (H/F) pour une grande banque internationale, dans un environnement anglophone et très orienté datacenter. Vos missions Piloter et suivre des projets d’implémentation ou d’évolution de services d’infrastructure (socle technique, services partagés, industrialisation) Coordonner des moves d’assets de datacenter significatifs (plusieurs centaines d’équipements) et sécuriser les jalons Apporter une expertise technique multi-domaine et challenger les équipes techniques (AIX, Linux, Windows, stockage, réseau, VMware) Construire et maintenir les livrables projet : Plan projet, analyse de risques, planning, RACI, chronogramme, supports de comités Interagir avec les métiers et les équipes techniques dans un contexte international (anglais courant) Environnement technique IBM AIX, Linux, MS Windows Server. LAN Datacenter (Cisco ACI, spine & leaf). Stockage EMC (VMAX, PMAX, XIO, VPLEX, VNX, Unity, SRDF, Clone, Snap, SRM, ViPR, Unisphere) VMware ESXi Server, socle Cloud / Big Data / Continuous Delivery
Offre d'emploi
Lead développeur Java Angular (H/F)
ADSearch
Publiée le
60k-70k €
Marseille, Provence-Alpes-Côte d'Azur
En bref : Lead développeur Java Angular (H/F) - CDI - Marseille - Rémunération autour de 60k € brut annuel Notre client, PME située à Marseille, recherche son nouveau Lead développeur Java Angular (H/F) dans le cadre d'un remplacement. Vos missions : - Participer à la conception de l’architecture applicative - Développer et refondre les applications en Java / Angular - Garantir la qualité du code (clean code, tests, bonnes pratiques) - Assurer la performance, la sécurité et l’évolutivité des solutions - Jouer un rôle de référent technique auprès de l’équipe - Réaliser des revues de code et accompagner les développeurs - Mettre en place et améliorer les méthodes et outils (Agilité, CI/CD, DevOps) - Assurer le support technique N2/N3 et la maintenance des applications - Gérer la transition entre l’existant et les nouvelles applications
Offre d'emploi
Responsable d'application RUN - DATA
OBJECTWARE
Publiée le
Control-M
Oracle
PL/SQL
12 mois
40k-60k €
100-520 €
Nanterre, Île-de-France
La Squad Core Data (équipe opérationnelle ~20 personnes) de la Tribe Data France est composée de 5 applications de type "batch" Cette Squad dont l'organisation est full agile (sprints, daily, jira …) et avec l'aide de notre TMA a vocation à : Maintenir et sécuriser au quotidien ces applications Mettre en œuvre sur ce périmètre les évolutions (réglementaire, métier, technique …) ~20-30 projets/an Domaine / Environnement technique : Culture "bach" : perf/volumétrie, gestion de différent type de fichiers (séparateurs, formats fixes, xml …), rejets, manipulation des données … Détails de la prestation : La mission consiste à assurer le suivi et le maintien en condition opérationnelle des applications de la squad Core Data (Bases Commerciales, Interfaces Délégataires ...) - Suivi des traitements batch en production - Support de niveau 2 en cas d'incident en production - Assistance auprès des utilisateurs - Analyse des dysfonctionnements et collaboration avec la TMA qui assure les corrections - Pilotage des plans d'actions pour la résolution des problèmes de fond (incidents récurrents, incidents critiques) - Pilotage opérationnel des trains de maintenance - Application des processus TDI (Traitement des Demandes et Incidents) en vigueur chez BNP Paribas Cardif - Production des indicateurs de performance (taux de disponibilité des applications, suivi du stock de fiches d'assistance) - Gestion/Renouvèlement des certificats Compétences fonctionnelles : Aucune Compétences techniques : - Oracle, SQL, PL-SQL (très présent) - Informatica Powercenter - Linux - Ordonnanceur Control-M - CFT - GIT (Toolchain) Une forte appétence technique est nécessaire afin de pouvoir discuter, être en support et challenger nos différents acteurs : développeurs, experts, centre de test, exploitant …
Offre d'emploi
Data Engineer - GCP - CDI
Espritek
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
50k-65k €
140 €
Ivry-sur-Seine, Île-de-France
FnacDarty est le leader européen du retail spécialisé omnicanal, avec des marques iconiques telles que Fnac, Darty, Nature et Découverte, WeFix, engagé pour un choix éclairé et une consommation durable. Vous êtes passionné par les outils BI et la data ? Rejoignez la Data & AI Factory de FnacDarty, entité qui regroupe les compétences fonctionnelles et techniques qui contribue au développement de l’activité grâce à la richesse de nos données et aux technologies avancées d’exploitation. L’entreprise recherche un TechLead Data pour intervenir au sein de la squad Exploitation (Améliorer le pilotage opérationnel des magasins, optimiser les processus et soutenir les décision terrain) Description La mission nécessite un profil capable d’assurer à la fois : • un rôle de leadership technique, garant de la cohérence des choix d’architecture, de la qualité des développements et de l’industrialisation des solutions • un rôle opérationnel de développeur, pleinement impliqué dans la conception et la réalisation des pipelines, modèles et orchestrations. Vous interviendrez principalement sur les technologies GCP (BigQuery, Dataform, Cloud Composer,…) et contribuerez également, dans une moindre mesure, à la maintenance et à l’évolution de flux existants sous Talend. En binôme avec le PO, vous participerez au cadrage des besoins, à la structuration du backlog, à la définition des solutions techniques et à la sécurisation de la delivery. Missions principales • Participer au cadrage fonctionnel avec le PO et les parties prenantes métier pour comprendre les impacts business des données et ceux afin de réaliser des conceptions pertinentes et alignées avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Contribuer ponctuellement aux flux existants sous Talend. • Assure la maintenance corrective ou évolutive • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Mettre en place des bonnes pratiques de développement : tests, documentation, revue de code, versioning. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe • Assurer une veille technologique sur les outils GCP et les frameworks data. Livrables • Conceptions techniques des modèles, pipelines et orchestrations GCP. • Développements et industrialisation des traitements (BigQuery, Dataform, Cloud Composer). • Documentation technique à jour (architecture, transformations, procédures). • Contributions au cadrage et à la structuration du backlog avec le PO. • Mise en place ou renforcement des bonnes pratiques DataOps (tests, CI/CD, monitoring). • Assurer la TMA des pipelines existants (maintenance corrective et évolutive, résolution d’incidents, mises à jour techniques). Compétences Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • GCP : Expérience sur les outils BigQuery, DataForm, CoudComposer/AirFlow, Pub/Sub, Dataflow et d’autres services GCP liés aux données. • Talend : Connaissances et pratiques dans la conception et la gestion des workflows • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins Compétences transversales : • Esprit analytique et rigueur. • Leadership technique, pédagogie, capacité à embarquer. • Approche orientée résolution de problèmes et fiabilité opérationnelle. • Capacité à gérer des priorités multiples dans un environnement dynamique. • Capacité à travailler en équipe et à collaborer avec des parties prenantes variées. • Autonomie et force de proposition sur les solutions techniques. • Bonne communication et pédagogie pour expliquer les concepts techniques aux non-spécialistes. • Capacité à comprendre les besoins pour proposer aux métiers les solutions leur permettant d’utiliser efficacement les données et de prendre les bonnes décisions
Offre d'emploi
Business Analyst Murex (Front Office) | Brest
OMICRONE
Publiée le
Analyse
Finance
FO
2 ans
40k-45k €
400-470 €
Brest, Bretagne
Nous recrutons – Business Analyst Murex (Front Office) | Brest 🚀 Dans le cadre d’un projet stratégique au sein d’un environnement marchés financiers, nous recherchons un Business Analyst Murex pour intervenir sur des sujets Front Office / produits structurés. 📍 Localisation : Brest 📅 Démarrage : ASAP ⏳ Mission longue 🎯 Contexte de la mission Vous interviendrez sur un projet visant à renforcer la robustesse et la performance des activités Front Office, en lien étroit avec les équipes Marchés, Risques, IT et les utilisateurs finaux. 🧩 Vos missions Recueil et analyse des besoins métiers (Marchés Financiers, Risques) Animation d’ateliers métiers et coordination des parties prenantes Rédaction de spécifications fonctionnelles détaillées Paramétrage et configuration de l’outil Murex (FO) Élaboration et suivi des campagnes de tests (UAT, TNR) Suivi des anomalies et coordination avec les équipes IT Accompagnement au changement : documentation, formation, support Reporting projet 🛠️ Profil recherché Expérience confirmée en tant que Business Analyst Murex Bonne maîtrise des fonctionnalités Front Office Connaissances des produits structurés (Equity appréciée) À l’aise dans des environnements exigeants et métiers Bon relationnel, autonomie, rigueur et sens de la communication ➕ Atouts Expérience sur des projets d’implémentation ou d’évolution Murex Connaissances SQL Exposition aux sujets Risques / Pricing
Offre d'emploi
Développeur Kafka Confluent (H/F)
SAS GEMINI
Publiée le
Apache Kafka
Azure
DevOps
24 mois
La Défense, Île-de-France
Au sein de la DSI d’un grand groupe industriel international, vous intégrez une équipe Data & Streaming en charge de la conception et de l’exploitation de la plateforme de streaming de données temps réel. L’environnement technique est centré sur Apache Kafka (Confluent Platform) déployé sur Microsoft Azure. Missions principales: - Concevoir, développer et maintenir les pipelines de streaming de données basés sur Apache Kafka (Confluent Platform) sous Azure - Assurer la mise en place et l’administration des clusters Kafka : topics, partitions, consumers, connecteurs (Kafka Connect) - Développer des applications de traitement en temps réel avec Kafka Streams ou ksqlDB - Implémenter et gérer les schémas de données via le Schema Registry (Avro, Protobuf, JSON Schema) - Participer à la mise en place de patterns d’intégration événementielle (Event-Driven Architecture) - Monitorer les performances et la fiabilité des flux Kafka (Confluent Control Center, Grafana, Azure Monitor) - Collaborer avec les équipes Data Engineering, DevOps et Architecture dans un contexte Agile - Rédiger la documentation technique en anglais
Offre d'emploi
Expert technique Centre de contact h/f
Ela Technology
Publiée le
Genesys
Powershell
1 an
Île-de-France, France
I. Contexte : Vous assurerez l'exploitation des solutions de téléphonie. Rattaché au Responsable du Centre de Contact et justifiant d'une solide expérience dans ce domaine (en particulier sur GENESYS CLOUD), vous serez le garant de la documentation technique ainsi que de l'évolution des différents modules applicatifs de l'écosystème II. Missions : · Le suivi et la résolution des incidents dans le respect des SLA, · La participation active aux comités de suivi des incidents, · Réaliser l'optimisation et l'évolution des Callflow GENESYS CLOUD avec l'ensemble des paramétrages impactés, · Optimiser le reporting (temps réel et temps différé), · Participer aux upgrades et/ou évolutions des solutions de la plateforme, · Coconstruire avec le métier les évolutions du routage d'appel, · Rédiger la documentation technique et fonctionnelle afférente à l'exploitation et à l'architecture, · La création et l’évolution des Dashboard de supervision et de métrologies à l'attention des équipes d'exploitation. Environnements techniques : · Solution de centre de contact - GENESYS CLOUD, · Solutions de supervision et de métrologie Zabix/Graphite/Grafana, · Solution d'enregistrement Verint, · Solution de sauvegarde et de restauration de la configuration Genesys Cloud via Terraform · Plateforme de développement PowerShell.
Mission freelance
Expert senior Salesforce (module FSL)
Signe +
Publiée le
Salesforce
6 mois
490-520 €
Paris, France
Contexte : Au sein de la verticale RACCORDEMENTS de la DSI, cette mission a pour domaine la maitrise d'œuvre du système I360, qui se base sur Salesforce Field Service. C'est un système de « Field Service Management » pour les partenaires mandatés par le client pour installer et dépanner ces box fibre. Il gère la planification, l’optimisation et le dispatch des interventions FTTH. Le système communique avec le reste du SI par des appels de web services, gérés par un système interne de médiation. Nous sommes actuellement en train de migrer l'application mobile initialement utiliser par les techniciens pour le SAV et le Raccordement de nos clients à la fibre par l'application mobile de fied services. Dans ce contexte le client cherche à renforcer son équipe par un expert field services.
Offre d'emploi
DATA Engineer GCP 2
KEONI CONSULTING
Publiée le
Architecture
Python
SQL
18 mois
20k-60k €
100-550 €
Paris, France
CONTEXTE : L’équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Le stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Offre d'emploi
Expert CyberArk et Ignimission
VISIAN
Publiée le
cyberark
Ignimission
1 an
Île-de-France, France
Contexte La mission se déroulera dans l'équipe PAM d'une grande organisation IT Le candidat intégrera une équipe CyberArk et assurera des gestes de type N3 / N2 en faisant preuve d'expertise. Missions Assurer les ouvertures et fermetures du service en horaire ouvré (HO) du lundi au vendredi, sur une plage horaire couvrant 8h à 18h. Assurer une à trois gardes hebdomadaires sur les pauses méridiennes (12h-13h ou 13h-14h) selon un planning défini. Intervenir en heures non ouvrées (HNO) sur des opérations planifiées (soirée, week-end). Effectuer les 6 premiers mois en présentiel pour garantir l’intégration et assurer le lien avec les équipes PAM, IAM et autres équipes en interaction. Après 6 mois, possibilité de télétravail 2 jours par semaine immuables, dont un jour fixe imposé par le manager/Team Leader. Assurer des astreintes sur les 6 infrastructures PAM, couvrant un périmètre potentiel de 600 serveurs, à raison d’une fois tous les deux mois. Périmètre d'intervention Run Ignimission : Vérifications quotidiennes des chargements des EVD et fiabilisation des tableaux de bord Ignimission. Automatisation des contrôles relatifs aux chargements EVD. Interaction avec les équipes IAM, Cloud interne, Middleware et PAM pour le suivi des incohérences et la gestion des incidents. Mise en place de supervision et consignes sur le produit. Mise en place et troubleshooting des bons de travail (BT) existants. Run CyberArk : Gestion des indicateurs de rotation des mots de passe. Gestion des incidents. Gestion des certificats. Maintien des infrastructures CyberArk et composants (Vault, DR, PVWA, CPM, PSM, PSMP, PTA). Intervention sur des projets de migrations Vault à Vault. Migration métier à métier dans le cadre de réorganisations internes. Expertise, intégration AIM/AAM - CP/CCP selon le modèle d’offre de service. Conception, modélisation et intégration des solutions techniques dans un contexte hybride Cloud / on-prem et multi-technologique. Amélioration de l’existant : simplification, rationalisation et homogénéisation dans un objectif de transformation à moyen/long terme. Formation et accompagnement des différents niveaux de support (N2, fonctionnels, techniques). Documentation et explication des solutions avec différents niveaux de détails destinés à diverses populations (management, projets, clients, équipes fonctionnelles et techniques). Automatisation des activités récurrentes (patching kernel, installation de produits, etc.). Ignimission.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2756 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois