>  > 

玉骨遥下载

玉骨遥

玉骨遥

官方   年满12周岁
3次下载50.00%好评率4人评论
需优先下载
玉骨遥安装
普通下载 安全下载
 小编点评
玉骨遥

引言

華為雲最近成為《Forrester Wave™: Multicloud Container Platforms, Q4 2023》報告中唯一入選的中國廠商,市場表現強勁。華為雲分布式雲原生 UCS 作為本次參評的關鍵服務,其在多雲容器應用中的價值獲得了測評的一致認可。同時 12 月初,UCS 通過中國信息通信研究院分布式雲原生能力測評,華為雲成為首批通過分布式雲原生能力評估的企業。

對於 UCS 來說,除了來自權威機構的認定外,越來越多的來自最終用戶的大規模生產實踐才是對 UCS 能力的最大認可。特別是近來頻發的單集群現網事故,使得基於多集群的容災多活引起了越來越多的關注,引發了對服務可用性的更深入思考。

本文將結合華為 MetaERP 的生產應用案例詳細介紹 UCS 多集群的容災多活實踐。MetaERP 業務複雜,服務規模大,可用性要求高。基於 UCS 的多集群方案,在兼容原有單集群流水線、運維工具、監控視圖的前提下,不僅提供了原有單集群的基於節點、AZ 等傳統環境故障的容災能力,同時也提供了多集群特有的集群整體故障、軟件故障容災。在整個生產實踐中,客戶反饋最重要的是多集群方案引入的灰度集群環境解決了單集群本地升級風險的問題,全麵提升了服務可用性。

技術背景

隨著以 Kubernetes 為核心的雲原生技術的普及和應用,越來越多的大規模生產業務都運行在 Kubernetes 平台上。其提供了便捷的容器實例擴縮容、極致的負載彈性、無縫的應用遷移,幫助用戶構建大規模、擴展性要求高的雲原生應用。此外 Kubernetes 提供的節點、AZ 等反親和部署能力,在單個節點或者整個 AZ 故障時,保證有一定的可用實例提供服務,客觀上也幫助用戶提高了應用的可用性。

但是,近來不斷出現的各種單集群故障導致重大業務故障的案例,給最終客戶帶來了極大的不便,單個 Kubernetes 集群在越來越多可用性要求較高的場景下遇到了嚴重挑戰。Kubernetes 自身作為一個軟件平台,其控製麵和數據麵自身組件的潛在故障經過廠商的保證,發生幾率不高,但一旦發生會產生業務停頓、數據丟失等極大的影響。特別是近來業內多個重大的故障案例中單集群 Kubernetes 版本的異常原地升級,導致集群內所有業務癱瘓,引發了全局的業務斷服宕機。

這種現象的根本原因是存在一個無限大的爆炸半徑。就像把所有雞蛋放在一個結實的籃子裏,一旦籃子有問題,沒有一個雞蛋能幸存。更糟糕的是隨著業務增長,這個早期還是結實能用的籃子,隨著時間推移越來越破舊,但這個過程中卻有更多的雞蛋一直不斷地塞進來,因此籃破蛋打是早晚要麵對的事。解決這類問題的直觀且根本的思路是減小爆炸半徑,把雞蛋分開放到多個籃子裏。

理論上這個道理很簡單,不要垂直擴展單個集群,而是水平擴展集群數。但是真正實踐中並沒有這麽簡單。MetaERP 客戶早期選擇把大量服務集中部署在大集群的一個主要原因是想降低平台的運維成本,單個 Kubernetes 集群的運維已經耗費了團隊很多精力,多個 Kubernetes 集群理論上會導致管理和運維成本線性地增加。在 MetaERP 為代表的大規模企業應用實踐中,麵臨多個複雜問題: 如何靈活地控製負載和多種資源對象在多個集群間部署、升級、彈性擴展;如何管理多集群的入口流量;如何控製多集群的內部流量。總的來說,即如何將理論上的多集群可用性轉化為客戶的實際價值。最重要的是 MetaERP 希望多集群能力與其原有的單集群使用方式兼容,包括原有單集群命令行工具、CICD 流水線、擴展組件調用的集群 API 等盡量保持不變,同時保持麵向應用的多集群統一的資源管理視圖、監控運維視圖等,UCS 的多集群解決方案逐一解決了以上問題。

方案

節點、AZ 等傳統環境故障容災

首先,UCS 內置的 Karmada 多集群資源管理允許用戶根據策略動態地將負載分布式部署到艦隊管理的多個集群中。每個集群管理的節點來自不同的可用區 (AZ), 因此負載的各個實例被智能地分布在不同的可用區,從而具備了跨可用區的高可用性。

當某個節點發生故障時,該節點上的負載實例不可用。此時,訪問該服務的流量不僅會被重新分發到本集群其他節點的對應副本,還會分發到其他集群中對應的副本,確保了服務的整體可用性。

當某個 AZ 故障時,該區域的節點全部失效,導致負載實例不可用。流量自動轉移到其他集群,即其他 AZ 的對應副本上,用戶的業務完全不受影響。

通過以上分析,UCS 多集群方案覆蓋了 MetaERP 原有的單集群提供的 AZ 級別、節點級別的服務可用性,同時還增加了單集群不具備的功能,幫助全麵提高業務的可用性。

集群軟件故障容災

除了環境故障外,另外一個可能對業務產生潛在影響的是集群軟件自身的故障,雖然這種故障發生的幾率低,但是一旦發生,對業務影響很大。在客戶應用中曾經出現過 Kube-apiserver 過載導致集群故障、集群數據麵異常導致負載不能正常創建等問題。在單集群環境下,基於常規的故障檢測和倒換機製,平台和業務可采取的有效手段非常有限。

基於 UCS 多集群方案,當檢測到一個集群故障時,Karmada 可以動態地將目標是該故障集群的流量切換到另外一個可用集群的服務後端上。同時根據策略配置,可以動態地將負載實例從故障集群遷移到其他可用集群。也支持用戶根據自身對業務的判斷,在緊急情況下,當發現一個集群狀態不健康時,管理員可以將一個集群的負載整體隔離掉,快速高效地進行故障隔離,最大限度保證業務總體可用性。

集群升級故障容災

在實踐中,UCS 多集群方案為 MetaERP 業務帶來最大收益在於集群升級過程的保障。在業務升級中,引入各種灰度升級策略是常見的做法,然而,在集群平台升級時,應用這種灰度機製卻相當困難。如果待升級集群版本本身存在問題或與現有業務不兼容,可能導致現有業務受升級影響。例如,集群升級 Master 證書不匹配、容器文件係統變更影響 Jar 包加載順序導致應用啟動異常,或者不當的現網集群版本升級路徑導致集群無法正常啟動等問題,都可能導致整個集群的業務受影響。

通過 UCS 多集群方案,用戶在升級時可選擇一個集群作為獨立的灰度環境進行升級,等待最終業務驗收確認升級成功後再升級另一個集群。這種方式避免了在單集群場景下,集群升級失敗導致全部業務不可用的情況。

以下是詳細的操作步驟:

1.在業務低穀時間窗內進行集群升級。首先,選擇一個待升級的集群作為灰度環境,並配置規則將全部流量切換到另一個集群。

2.對灰度集群的平台組件執行升級,並觀察各個組件的正常運行情況。

3.觀察灰度集群內負載的運行情況,確保負載與灰度集群環境匹配並正常運行。

4.將少量流量切換至灰度集群,進行部分負載的灰度發布,從最終業務視角觀察服務的運行狀態。當基於業務確認灰度集群運行正常時,逐步將全量流量切換至灰度集群。

5.對另一個集群執行灰度升級過程,確保每個集群都經過類似的測試和確認。

在以上的第二到第四步驟中,如果出現問題,可以立即修複灰度集群,而不會影響最終用戶的訪問。通過這種集群灰度升級的方式,確保升級過程中出現的問題不會對用戶業務造成影響。

入口和內部流量統一多活策略

與傳統的容災多活僅僅基於入口流量控製不同,UCS 與高性能服務網格集成,能夠在應用內部執行一致的流量動作。在容災場景下,通過網格代理和入口 Gateway 基於統一的流量策略進行切換。對於同一目標服務,無論流量源自內部服務訪問還是外部訪問,都可以根據統一的策略隔離異常實例,確保服務的高可用性。

流量遷移伴隨應用遷移多重能力

在許多容災解決方案中,僅僅切換流量可能看似解決了主要問題,但實際上仍然存在不完善之處。在前述場景中,將流量從一個被標記為不健康的集群實例隔離後,實際提供服務的後端數量可能會少於用戶最初預期的數量,從客觀上來說,這會導致服務整體能力受損,這顯然不滿足 MetaERP 可用性要求高的業務。UCS 提供的多集群故障遷移方案不僅僅局限於流量切換,還結合了跨集群負載遷移和根據用戶實際場景進行的數據遷移,構建了立體化的故障應對機製。也就是說,除了保證業務連續性通過流量切換外,還通過多集群中的負載管理,在異常集群中的負載遷移到其他集群中,確保始終有足夠數量的負載實例向用戶提供服務,以確保服務的可用性。這種結合了流量遷移和負載遷移的方式,保障了用戶業務的可用性,確保了總體服務質量符合用戶期望。

單集群一致體驗,簡化運維

UCS 多集群容災方案中以集群粒度進行故障管理,與僅能在實例、節點或 AZ 粒度進行故障檢測和隔離的單集群方案不同,能夠快速隔離整個集群以實現故障快速隔離,從而提升應用的可用性。但這些能力的提供並未增加用戶的管理和運維複雜度。UCS 多集群艦隊提供了與單集群完全兼容的 API 和對象模型,使得原有的單集群運維平台工具可以無縫對接。MetaERP 原有流水線無需過多修改即可連接艦隊 API, 實現集群 Deployments、Service、Secret、ConfigMap、Role、RoleBinding 等 Kubernetes 資源的創建、升級。

同時,UCS 基於 Karmada 的多集群資源管理能力,根據用戶配置的策略將艦隊級別的資源分發到艦隊管理的多個集群。MetaERP 運維人員可以通過原有的 Kubernetes 命令行工具對艦隊中的資源進行統一運維管理,與單集群體驗基本一致。此外,麵向應用的艦隊級別監控視圖也與單集群內的業務監控保持一致。

多集群的采用不僅突破了單集群的容量限製,還大幅提升了平台的總體容量,滿足了 MetaERP 業務的大規模增長需求。

總結

在 MetaERP 基於 UCS 多集群方案中,不僅涵蓋了傳統容災場景中資源和環境故障的處理,還包括了應對平台自身、軟件故障以及平台升級過程的能力,顯著增強了業務的整體可用性。這種方案不受限於雲上同 Region 多 AZ 的部署方式,也能靈活適用於跨 Region 環境、多雲環境和混合雲環境。通過基於分布式環境的部署,它能有效地管理多集群的負載和流量,在分布式雲環境中實現容災多活,進一步提高用戶業務的可用性。

這裏介紹到的多集群能力隻是分布式雲原生 UCS 產品功能的一部分。分布式雲為用戶提供了將雲能力根據其場景分發到各個物理位置的靈活性,同時通過在雲上統一管理運維,簡化了用戶的使用。作為業界最早的分布式雲產品,華為雲的分布式雲原生 UCS 采用雲原生方式將廠商的硬件、軟件、基礎架構和服務分發到用戶數據中心、邊緣、其他雲等多種位置,以滿足用戶對低時延、本地數據處理、數據駐留合規性或容災多活等應用場景的需求。在基於多雲多集群高可用的分布式應用管理基礎上,在多集群的艦隊上構建全域統一的動態流量、應用配置、零信任安全、DevOps、應用運維等能力,滿足 MetaERP 等大規模企業用戶不斷增長的應用現代化需求。

同時,UCS 多集群方案的核心組件 Karmada 在服務分布式雲原生客戶場景中持續成熟,並於本月正式晉級為 CNCF 孵化項目。未來,Karmada 將繼續探索雲原生多集群領域的技術創新,讓基於 Karmada 的多雲方案更深度地融入雲原生技術生態。

未來,UCS 將持續引領多雲容器平台的發展,助力用戶實現更高效、更智能的雲原生應用部署與管理。

廣告聲明:文內含有的對外跳轉鏈接(包括不限於超鏈接、二維碼、口令等形式),用於傳遞更多信息,節省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。

玉骨遥最新版截图

玉骨遥截图玉骨遥截图玉骨遥截图玉骨遥截图玉骨遥截图
  • 玉骨遥截图预览
  • 玉骨遥截图预览
  • 玉骨遥截图预览
  • 玉骨遥截图预览
  • 玉骨遥截图预览

玉骨遥 现在下载,新用户还送新人礼包

  • [玉骨遥]年庆狂欢普发礼包1

    截止时间:2024-04-26 22:39

    礼包内容:瓶盖*1000

    下载玉骨遥领取
  • [玉骨遥]周年庆狂欢普发礼包2

    截止时间:2024-04-27 14:40

    礼包内容:潮流纤维*50,金币*1

    下载玉骨遥领取
  • [玉骨遥]周年庆狂欢普发礼包3

    截止时间:2024-04-28 15:50

    礼包内容:瓶盖*1000

    下载玉骨遥领取

网友评论更多

  • 1﹍Mr.少年

    這款軟件操作比較簡單,功能也較為豐富。

    23:17   推荐

    那妞,已格式化:這是朋友推薦給我的軟件,很實用 来自惠州市

    迷离 :玉骨遥我下B站視頻都是用bilibili唧唧,主要真的很好用,還可以自己選擇下載格式,省的轉碼。 来自焦作市

    伙计你别拽 回复 左手淡淡烟草香 :使用很簡單,操作也很方便

    更多回复
  • 1爷、继续堕落

    還行,界麵挺流暢的,沒出現卡頓。

    5:51   推荐

    他帅不过我:軟件很容易上手,也很具專業性。 来自南通市

    不着调调的小男人 :玉骨遥用過xy蘋果助手官方版這款軟件之後,總體感覺還是很不錯的。 来自大同市

    一个没了情绪的男人 回复 爷、继续堕落 :AutoHotkey是簡易而功能強大的熱鍵腳本語言,值得信奈

    更多回复
  • 1爷丶有爷的范°

    還可以使用尺寸過濾器選項在PC上找到最大的文件。

    19:54   推荐

    时光深存少年梦。:堅持練還是挺有用啊,順便說下,打字的時候要看屏幕,不要看鍵盤。 来自华为云分布式云原生 UCS 助力 MetaERP 构建企业级高可用分布式业务******

    引言

    华为云最近成为《Forrester Wave™: Multicloud Container Platforms, Q4 2023》报告中唯一入选的中国厂商,市场表现强劲。华为云分布式云原生 UCS 作为本次参评的关键服务,其在多云容器应用中的价值获得了测评的一致认可。同时 12 月初,UCS 通过中国信息通信研究院分布式云原生能力测评,华为云成为首批通过分布式云原生能力评估的企业。

    对于 UCS 来说,除了来自权威机构的认定外,越来越多的来自最终用户的大规模生产实践才是对 UCS 能力的最大认可。特别是近来频发的单集群现网事故,使得基于多集群的容灾多活引起了越来越多的关注,引发了对服务可用性的更深入思考。

    本文将结合华为 MetaERP 的生产应用案例详细介绍 UCS 多集群的容灾多活实践。MetaERP 业务复杂,服务规模大,可用性要求高。基于 UCS 的多集群方案,在兼容原有单集群流水线、运维工具、监控视图的前提下,不仅提供了原有单集群的基于节点、AZ 等传统环境故障的容灾能力,同时也提供了多集群特有的集群整体故障、软件故障容灾。在整个生产实践中,客户反馈最重要的是多集群方案引入的灰度集群环境解决了单集群本地升级风险的问题,全面提升了服务可用性。

    技术背景

    随着以 Kubernetes 为核心的云原生技术的普及和应用,越来越多的大规模生产业务都运行在 Kubernetes 平台上。其提供了便捷的容器实例扩缩容、极致的负载弹性、无缝的应用迁移,帮助用户构建大规模、扩展性要求高的云原生应用。此外 Kubernetes 提供的节点、AZ 等反亲和部署能力,在单个节点或者整个 AZ 故障时,保证有一定的可用实例提供服务,客观上也帮助用户提高了应用的可用性。

    但是,近来不断出现的各种单集群故障导致重大业务故障的案例,给最终客户带来了极大的不便,单个 Kubernetes 集群在越来越多可用性要求较高的场景下遇到了严重挑战。Kubernetes 自身作为一个软件平台,其控制面和数据面自身组件的潜在故障经过厂商的保证,发生几率不高,但一旦发生会产生业务停顿、数据丢失等极大的影响。特别是近来业内多个重大的故障案例中单集群 Kubernetes 版本的异常原地升级,导致集群内所有业务瘫痪,引发了全局的业务断服宕机。

    这种现象的根本原因是存在一个无限大的爆炸半径。就像把所有鸡蛋放在一个结实的篮子里,一旦篮子有问题,没有一个鸡蛋能幸存。更糟糕的是随着业务增长,这个早期还是结实能用的篮子,随着时间推移越来越破旧,但这个过程中却有更多的鸡蛋一直不断地塞进来,因此篮破蛋打是早晚要面对的事。解决这类问题的直观且根本的思路是减小爆炸半径,把鸡蛋分开放到多个篮子里。

    理论上这个道理很简单,不要垂直扩展单个集群,而是水平扩展集群数。但是真正实践中并没有这么简单。MetaERP 客户早期选择把大量服务集中部署在大集群的一个主要原因是想降低平台的运维成本,单个 Kubernetes 集群的运维已经耗费了团队很多精力,多个 Kubernetes 集群理论上会导致管理和运维成本线性地增加。在 MetaERP 为代表的大规模企业应用实践中,面临多个复杂问题: 如何灵活地控制负载和多种资源对象在多个集群间部署、升级、弹性扩展;如何管理多集群的入口流量;如何控制多集群的内部流量。总的来说,即如何将理论上的多集群可用性转化为客户的实际价值。最重要的是 MetaERP 希望多集群能力与其原有的单集群使用方式兼容,包括原有单集群命令行工具、CICD 流水线、扩展组件调用的集群 API 等尽量保持不变,同时保持面向应用的多集群统一的资源管理视图、监控运维视图等,UCS 的多集群解决方案逐一解决了以上问题。

    方案

    节点、AZ 等传统环境故障容灾

    首先,UCS 内置的 Karmada 多集群资源管理允许用户根据策略动态地将负载分布式部署到舰队管理的多个集群中。每个集群管理的节点来自不同的可用区 (AZ), 因此负载的各个实例被智能地分布在不同的可用区,从而具备了跨可用区的高可用性。

    当某个节点发生故障时,该节点上的负载实例不可用。此时,访问该服务的流量不仅会被重新分发到本集群其他节点的对应副本,还会分发到其他集群中对应的副本,确保了服务的整体可用性。

    当某个 AZ 故障时,该区域的节点全部失效,导致负载实例不可用。流量自动转移到其他集群,即其他 AZ 的对应副本上,用户的业务完全不受影响。

    通过以上分析,UCS 多集群方案覆盖了 MetaERP 原有的单集群提供的 AZ 级别、节点级别的服务可用性,同时还增加了单集群不具备的功能,帮助全面提高业务的可用性。

    集群软件故障容灾

    除了环境故障外,另外一个可能对业务产生潜在影响的是集群软件自身的故障,虽然这种故障发生的几率低,但是一旦发生,对业务影响很大。在客户应用中曾经出现过 Kube-apiserver 过载导致集群故障、集群数据面异常导致负载不能正常创建等问题。在单集群环境下,基于常规的故障检测和倒换机制,平台和业务可采取的有效手段非常有限。

    基于 UCS 多集群方案,当检测到一个集群故障时,Karmada 可以动态地将目标是该故障集群的流量切换到另外一个可用集群的服务后端上。同时根据策略配置,可以动态地将负载实例从故障集群迁移到其他可用集群。也支持用户根据自身对业务的判断,在紧急情况下,当发现一个集群状态不健康时,管理员可以将一个集群的负载整体隔离掉,快速高效地进行故障隔离,最大限度保证业务总体可用性。

    集群升级故障容灾

    在实践中,UCS 多集群方案为 MetaERP 业务带来最大收益在于集群升级过程的保障。在业务升级中,引入各种灰度升级策略是常见的做法,然而,在集群平台升级时,应用这种灰度机制却相当困难。如果待升级集群版本本身存在问题或与现有业务不兼容,可能导致现有业务受升级影响。例如,集群升级 Master 证书不匹配、容器文件系统变更影响 Jar 包加载顺序导致应用启动异常,或者不当的现网集群版本升级路径导致集群无法正常启动等问题,都可能导致整个集群的业务受影响。

    通过 UCS 多集群方案,用户在升级时可选择一个集群作为独立的灰度环境进行升级,等待最终业务验收确认升级成功后再升级另一个集群。这种方式避免了在单集群场景下,集群升级失败导致全部业务不可用的情况。

    以下是详细的操作步骤:

    1.在业务低谷时间窗内进行集群升级。首先,选择一个待升级的集群作为灰度环境,并配置规则将全部流量切换到另一个集群。

    2.对灰度集群的平台组件执行升级,并观察各个组件的正常运行情况。

    3.观察灰度集群内负载的运行情况,确保负载与灰度集群环境匹配并正常运行。

    4.将少量流量切换至灰度集群,进行部分负载的灰度发布,从最终业务视角观察服务的运行状态。当基于业务确认灰度集群运行正常时,逐步将全量流量切换至灰度集群。

    5.对另一个集群执行灰度升级过程,确保每个集群都经过类似的测试和确认。

    在以上的第二到第四步骤中,如果出现问题,可以立即修复灰度集群,而不会影响最终用户的访问。通过这种集群灰度升级的方式,确保升级过程中出现的问题不会对用户业务造成影响。

    入口和内部流量统一多活策略

    与传统的容灾多活仅仅基于入口流量控制不同,UCS 与高性能服务网格集成,能够在应用内部执行一致的流量动作。在容灾场景下,通过网格代理和入口 Gateway 基于统一的流量策略进行切换。对于同一目标服务,无论流量源自内部服务访问还是外部访问,都可以根据统一的策略隔离异常实例,确保服务的高可用性。

    流量迁移伴随应用迁移多重能力

    在许多容灾解决方案中,仅仅切换流量可能看似解决了主要问题,但实际上仍然存在不完善之处。在前述场景中,将流量从一个被标记为不健康的集群实例隔离后,实际提供服务的后端数量可能会少于用户最初预期的数量,从客观上来说,这会导致服务整体能力受损,这显然不满足 MetaERP 可用性要求高的业务。UCS 提供的多集群故障迁移方案不仅仅局限于流量切换,还结合了跨集群负载迁移和根据用户实际场景进行的数据迁移,构建了立体化的故障应对机制。也就是说,除了保证业务连续性通过流量切换外,还通过多集群中的负载管理,在异常集群中的负载迁移到其他集群中,确保始终有足够数量的负载实例向用户提供服务,以确保服务的可用性。这种结合了流量迁移和负载迁移的方式,保障了用户业务的可用性,确保了总体服务质量符合用户期望。

    单集群一致体验,简化运维

    UCS 多集群容灾方案中以集群粒度进行故障管理,与仅能在实例、节点或 AZ 粒度进行故障检测和隔离的单集群方案不同,能够快速隔离整个集群以实现故障快速隔离,从而提升应用的可用性。但这些能力的提供并未增加用户的管理和运维复杂度。UCS 多集群舰队提供了与单集群完全兼容的 API 和对象模型,使得原有的单集群运维平台工具可以无缝对接。MetaERP 原有流水线无需过多修改即可连接舰队 API, 实现集群 Deployments、Service、Secret、ConfigMap、Role、RoleBinding 等 Kubernetes 资源的创建、升级。

    同时,UCS 基于 Karmada 的多集群资源管理能力,根据用户配置的策略将舰队级别的资源分发到舰队管理的多个集群。MetaERP 运维人员可以通过原有的 Kubernetes 命令行工具对舰队中的资源进行统一运维管理,与单集群体验基本一致。此外,面向应用的舰队级别监控视图也与单集群内的业务监控保持一致。

    多集群的采用不仅突破了单集群的容量限制,还大幅提升了平台的总体容量,满足了 MetaERP 业务的大规模增长需求。

    总结

    在 MetaERP 基于 UCS 多集群方案中,不仅涵盖了传统容灾场景中资源和环境故障的处理,还包括了应对平台自身、软件故障以及平台升级过程的能力,显著增强了业务的整体可用性。这种方案不受限于云上同 Region 多 AZ 的部署方式,也能灵活适用于跨 Region 环境、多云环境和混合云环境。通过基于分布式环境的部署,它能有效地管理多集群的负载和流量,在分布式云环境中实现容灾多活,进一步提高用户业务的可用性。

    这里介绍到的多集群能力只是分布式云原生 UCS 产品功能的一部分。分布式云为用户提供了将云能力根据其场景分发到各个物理位置的灵活性,同时通过在云上统一管理运维,简化了用户的使用。作为业界最早的分布式云产品,华为云的分布式云原生 UCS 采用云原生方式将厂商的硬件、软件、基础架构和服务分发到用户数据中心、边缘、其他云等多种位置,以满足用户对低时延、本地数据处理、数据驻留合规性或容灾多活等应用场景的需求。在基于多云多集群高可用的分布式应用管理基础上,在多集群的舰队上构建全域统一的动态流量、应用配置、零信任安全、DevOps、应用运维等能力,满足 MetaERP 等大规模企业用户不断增长的应用现代化需求。

    同时,UCS 多集群方案的核心组件 Karmada 在服务分布式云原生客户场景中持续成熟,并于本月正式晋级为 CNCF 孵化项目。未来,Karmada 将继续探索云原生多集群领域的技术创新,让基于 Karmada 的多云方案更深度地融入云原生技术生态。

    未来,UCS 将持续引领多云容器平台的发展,助力用户实现更高效、更智能的云原生应用部署与管理。

    广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

    老酒挽旧友 :玉骨遥一款非常棒的軟件,值得信奈哦 来自沧州市

    〆﹏尐爺⺌ 回复 闻人诺 :邁克菲是付費殺毒軟件,有些電腦自帶幾年免費的,有些下載用著用著到期是要付費的。

    更多回复

玉骨遥热门文章更多

相关信息

大小
03MB
时间
分类
通讯社交聊天
TAG
版本
 安卓系统
要求
Android 5.0 以上
敏感权限获取说明 
查看权限要求 
隐私政策
开发者
玉骨遥有限公司