當前位置:編程學習大全網 - 編程語言 - AMD HSA異構計算項目的最後壹塊:hUMA統壹內存訪問

AMD HSA異構計算項目的最後壹塊:hUMA統壹內存訪問

雖然HSA異構計算系統架構這壹術語是在AMD、ARM、ImaginationTechnologies、聯發科、高通、三星、德意等發起的HSA聯盟之後首次被提及的。2013年6月,AMD早就提出了HSA的概念,所謂GPGPU也是壹個HSA,然後APU就是AMD的HSA。

但是,對於AMD來說,雖然APU通過集成在芯片級的超高速通道滿足了CPU和GPU直接通信的需求,但是還缺少什麽呢?上周,AMD向媒體介紹了AMDHSA架構的最後壹個謎題——hUMA“異構計算系統架構的統壹內存訪問”,由遊戲、軟件和異構計算總監楚漢金負責。

APU是AMD第壹個將CPU和GPU集成在同壹個管芯上的新壹代處理器項目,而今年剛剛發布的兩款新壹代APU,包括Kabini和Temash,進壹步集成了I/O通道。不過AMD也承認,這樣的高集成度對於目前手持設備大熱的ARM陣營來說很正常,但對於x86陣營來說只是壹個開始。

雖然已經進入了高度集成的SoC,單個處理器已經實現了HSA異構計算架構,但是現階段APU在異構計算上仍然面臨壹個非常麻煩的情況,那就是內存的使用;在多核CPU架構中,使用的內存中的數據可以以統壹的方式(UMA)訪問,內存信息可以相互共享。進入集成顯示階段將進壹步使CPU和集成GPU享受物理內存(NUMA)。

但是APU的GPU和CPU的內存還是獨立分配的。雖然雙方使用的是同壹個物理內存,但是實際上必須進行切割和分配,雙方的信息都不能使用,這樣雙方的計算結果都必須復制到對方使用的內存塊中,導致整個異構操作流程繁瑣復雜。

所以AMD推出了全新的hUMA技術,讓原來CPU和GPU無法* * *享用的物理內存也可以* * *,不再需要為CPU和GPU使用的資源切割分配內存,處理器本身可以更靈活的分配CPU和GPU使用的內存資源。

得益於統壹內存,存儲在CPU和GPU內存中的運算結果不再需要復制到彼此的塊中,所有信息可以直接相互訪問,可以減少內存空間的使用,大大加快二進制運算結果的享受,提高HSA異構運算的性能,節省功耗。

有了hUMA的加持,可想而知設備導入HSA是相當有幫助的。所有服務器、傳統電腦、平板電腦、嵌入式測試設備、遊戲機等。可以獲得更高的並行計算效率。新發布的兩款新壹代遊戲主機Playstation4和XboxOne的核心,不僅是AMD的半客戶計劃的客戶,還導入了hUMA的技術。

  • 上一篇:數控三菱系統的G指令有什麽?
  • 下一篇:楊進京多大了
  • copyright 2024編程學習大全網