Zynq UltraScale+ MPSoC 多媒體應用

消費者渴望更高的視頻質量,推進了視頻技術的發展。MPSoC 基於 Zynq-7000SoC ,包括一個可編程邏輯 (PL) 的橋接處理系統 (PS),但它在 Zynq UltraScale+ MPSoC進行了額外的擴展,於是很是適合多媒體應用領域。主要的區別包括:針對 UHD-4K 集成了支持 H.264 / H.265 的視頻編解碼器單元,適用但不只僅適用於監控、視頻會議、嵌入式視覺和一些廣播應用等領域,實現低時延的編碼,同時相對於服務器或可編程邏輯而言能效更高。該功耗優化型圖形子系統基於 ARM Mali-400,這是一種業經驗證的完善架構,很是適用於 2D 和 3D 圖形。PL 可編程性可提供:(a) 任意到任意高速視頻/ 音頻接口的靈活性及可擴展性;(b)爲多媒體管道帶來定製圖像及視頻處理功能的差別化效果。算法

Zynq UltraScale+ MPSoC 多媒體解決方案編程

Zynq UltraScale+ MPSoC 是一款異構 SoC,包括許多處理引擎、一系列高速外設、高級 I/O 功能和 PL。處理引擎包括基於四核 ARM Cortex A53 的 APU、基於雙核 ARM Cortex R5 的 RPU、Mali 圖形處理單元、平臺管理單元和視頻編解碼器單元 (VCU)。它可將圖形與視頻流水線化等關鍵應用交由專用處理塊分擔,也能經過高效的電源域與電源分區開關不一樣的塊。經過多種互聯選擇、DSP 塊和 PL 選擇,Zynq UltraScale+ MPSoC 的總體靈活性能知足用戶許多不一樣的應用需求。緩存

Zynq UltraScale+ MPSoC框架圖安全

該產品系列的可擴展性能完美知足設計師的要求,使用單個平臺和業界標準的工具便可同時知足成本敏感型和高性能應用的需求。服務器

爲了實現高性能、先進的多媒體系統,必須採用適當的處理引擎,還要能添加定製邏輯以實現差別化。此外,也可支持當今多種多媒體設備所需的任意到任意的鏈接功能。此前,要知足上述要求,每每要採用多芯片解決方案。雖然多芯片解決方案可能提供所需的多媒體和鏈接功能,但也會致使高功耗。像Zynq UltraScale+ MPSoC 這種單芯片解決方案則能解決該問題。定製邏輯能在同一器件上知足硬件加速或任意到任意的鏈接需求,從而能顯著節約功耗。除了處理引擎、硬件編解碼器(自帶功耗管理功能)和對定製邏輯的支持以外,Zynq UltraScale+ MPSoC 將這些組件放置在具備獨立電軌的不一樣電源域中。這種配置可用於爲整個系統設計優化功耗管理方案。Zynq UltraScale+ MPSoC 採用臺積電 16nmFinFET 工藝節點,這就能大幅提升性能並下降功耗,也能支持下一代節能型多媒體系統的設計。網絡

集成型視頻編解碼器單元 (VCU)架構

軟件視頻編解碼器實現方案有不少種,但實際上 , 全部軟件都要在硬件上運行。使用基於軟件的編解碼器解決方案,以合理的幀速率實現具備出色視頻質量 (VQ) 的高壓縮比,須要多個高功耗服務器類 CPU,此類 CPU 一般部署在雲端。框架

因爲必須遠離設備,實時壓縮一般沒法實現。不過軟件實施方案極爲靈活,系統也能進行高度優化。可是,在軟件中實現十分靈活,系統也很可能獲得優化。另外一種解決方案是在 PL 中實現軟 IP 塊。這種實現方案相對於離線軟件模式或許性能較低,但能實現低時延壓縮。相對於服務器級 CPU 而言,功耗得以改善,但並不像全集成解決方案那麼出色。一般高級編解碼器須要相對較大的可編程邏輯器件 ;可是,部署後的可編程性則爲該解決方案提供了高度靈活性。編輯器

Zynq UltraScale+ MPSoCs 採用了另外一種策略,即便用硬化的專用視頻編解碼器塊。因爲採用包含硬化 VCU 的單晶片,與其餘策略相比,Zynq UltraScale+ MPSoC 可實現具備低時延路徑、低功耗的實時壓縮。因爲採用了專用的編解碼器引擎,應用處理單元 (APU) 和/或 PL 能用於其餘計算。工具

VCU 可提供多標準編碼解碼功能,包括支持 AVC/H.264 和 HEVC/H.265 標準。它不只同時具備編碼(壓縮)和解碼(解壓縮)功能,還支持 60Hz 下分辨率高達 4K UHD 的並行編碼解碼功能若是下降幀率,還能支持 4K 乃至更高的 DCI 等更高分辨率。VCU 可同時支持多達八個不一樣的視頻流。同時處理不一樣視頻流的總帶寬要求不得超過 VCU 在 60fps 下對 4K UHD 的最大處理吞吐量。圖 3 給出了不一樣的視頻編碼解碼器實施策略。

視頻編解碼器實現策略圖

VCU 是 PL 中的集成塊,可支持 H.265 (HEVC) 和 H.264 (AVC) 標準,與處理系統 (PS) 非直連(硬鏈接)。使用賽靈思Vivado IP 集成器,設計人員可將 VCU 鏈接至應用處理單元 (APU) 以及 PS 和/或 PL中的存儲器子系統。

與軟件編碼解碼器不一樣,Zynq UltraScale+ MPSoC EV 器件中的 VCU 支持 H.264/H.265 視頻數據的低功耗高性能壓縮和解壓縮。H.264/H.265 視頻數據的低功耗、高性能壓縮和解壓縮。使其可以完美支持網絡上的實時 UHD 視頻流,可節約大量存儲空間與網絡帶寬。VCU 同時支持 H.264 和 H.265 標準,有助於開發知足當前市場需求 (H.264) 和下一代高級需求 (H.265) 的解決方案。採用低時延方式同
時編碼與解碼的能力使其完美支持視頻會議和 H.26四、H.265 之間的轉碼要求。多視頻流多編解碼器的編碼與解碼能力可知足 DVR、視頻服務器和多視頻流 IP 攝像頭的視頻監控頭端應用要求。因爲支持高達 4:2:2 10 位 UHD-4K 的視頻格式,VCU 也適合專業和高端消費級的製做與後期製做解決方案。AllProgrammable Zynq UltraScale+ MPSoCEV 器件結合集成 VCU 規範,爲各類多媒體市場帶來了理想的低成本、單芯片解決方案。

VCU 軟件堆棧
可用 Zynq UltraScale+ MPSoC 結合常見的多媒體框架 GStreamer,來開發硬件加速型多媒體應用。GStreamer 採用的插件模型可分爲三大功能 :源極、過濾和匯極插件。經過連接不一樣的插件 / 元素,可建立實現美的回放或捕獲等具體任務的流水線。GStreamer 提供的 gst-omx 插件能在 Zynq UltraScale+ MPSoC 器件上執行硬件加速視頻編碼與解碼。GStreamer 應用與 OpenMAX 集成層經過 gst-omx 插件互動。由 OMX IL 定義標準化的媒體組件接口,能與硬件中實現的 VCU 通信。該層與控制軟件(用戶空間驅動程序)API 交互,而 API 則能調用內核空間驅動程序。

內核驅動程序與嵌入式微控制器單元 (MCU) 通信,MCU 在 VCU 中集成編碼器和解碼器。MCU 上運行底層固件,控制編碼器 / 解碼器引擎。內核驅動程序向 MCU 發送幀級命令到,並等待 MCU 的響應。收到內核驅動程序的命令後,MCU 爲編碼器/ 解碼器引擎調度任務,並向內核驅動程序返回狀態。

根據用戶的應用要求,靈活的 VCU 軟件堆棧可在任何層面使用。開發人員能用控制軟件 API、OMXIL 或 GStreamer 與 VCU 硬件交互,開發多媒體流水線。VCU Linux 軟件堆棧的流程


VCU 軟件架構圖

根據待開發的多媒體應用的複雜程度,開發人員可可選用特定的 VCU 框架層。因爲 GStreamer 具備跨平臺濾鏡、編解碼器支持 ;可輕鬆建立視頻編輯器、轉碼器、流媒體播放工具與媒體播放器,而採用即插即用的模式,系統只需讀取單一格式的文件,處理以後再導出爲其它格式,這使 GStreamer 成爲一大廣受歡迎的選擇。它能靈活地集成插件組件,將組建混合匹配構成任意流水線,爲編寫成熟的多媒體應用提供了條件。此外,如需開發具備簡單輕便設計的定製化多媒體應用/框架,應用也可採用控制軟件API。

集成型圖形處理單元 (GPU)

Zynq UltraScale+ MPSoC 處理系統 (PS) 中的 GPU 爲 ARM Mali-400 MP2,與 APU 直接綁定,還可在幀緩存中加速視頻圖形渲染,從而實現顯示器輸出。GPU 可經過獨立的並行引擎進行像素渲染,速度遠高於依靠 CPU 來處理圖形的友商 ASSP,並且與須要設計人員添加片外 GPU 引擎的解決方案相比,成本與功耗均更低。

Mali-400 MP2 架構設計
GPU 經過全面可編程的架構加速 2D 和 3D 圖形,該架構既支持基於着色器的圖形 API ,也支持固定功能圖形 API 。GPU 具備抗鋸齒功能,能實現最佳圖像質量,且幾乎不會形成額外的性能損耗。配套提供經實踐檢驗的全套 Linux 驅動程序,能自動將圖形命令從 APU 轉到 CPU 處理。

Zynq UltraScale+ MPSoCGPU 的突出特性包括:
• ARM Mali-400MP2
• 最高速度等級下性能可達 667MHz
• 具備一個幾何處理器,兩個像素處理器
• 專用的 64KB 共享 L2 緩存
• 專用的存儲器管理單元
• OpenGL ES 2.0 和 OpenGL ES 1.1 支持
• OpenVG 1.1 API 支持
• 三個引擎上均採用獨立電源門控
• 像素填充率達每秒 13.34 億 (Mpixels/sec)
• 每秒 7260 萬三角形 (Mtriangles/sec)
• 浮點着色 12Gflops
上述性能數據基於 667MHz 的最高 GPU 時鐘速率。


GPU 軟件堆棧
Zynq Ultra Scale+ MPSoC 圖形軟件堆棧分爲三層:內核空間、用戶空間和應用空間。


圖形軟件堆棧圖

內核空間
內核空間與 GPU 硬件交互,提供必要的信息,以便向集成式硬件着色器分發任務。此外還負責處理底層中斷,進行存儲器管理。

VCU 軟件架構
用戶空間驅動程序包含如下組件:
• Mali 通用用戶庫:該層負責 GPU 工做建立以及圖形渲染流水線的任務調度。
• 擴展圖形庫 (EGL) :該層用於同下層窗口層交互,進而與顯示驅動程序交互。負責處理包括窗口建立在內的資源管理,也處理圖形環境管理、表面/ 緩存綁定、渲染同步等操做。
• OpenGL ES :該層提供標準化的抽象 API,供應用使用。

應用空間
GPU 可用的軟件包包含 OpenGL ES 1.1 和 OpenGL ES 2.0、底層圖形庫以及 ARM 提供的工具(Streamliner 和 Graphics Debugger)。Open GL ES 支持各類操做系統,爲應用提供了高度輕便的特性。其餘軟件組件將按需提供。

顯示控制器
Zynq UltraScale+ MPSoC 提供高速互聯外設,後者包含集成式 DisplayPort 接口模塊。DisplayPort接口位於 PS 端,可多路複用至四個專用高速串行收發器中的兩個,工做速率高達 6 Gb/s。該架構擺脫了對於額外顯示芯片的需求,進一步下降了系統 BOM 成本。

DisplayPort 接口基於 VESA DisplayPort Standard Version 1 和 Revision 2a 開發,其提供的多個接口能處理來自 PS 或 PL 的實時音視頻流,也能存儲來自存儲器幀緩存的音視頻。它同時支持兩個音視頻流水線,支持 alpha 混合、chroma 復採樣、色彩空間轉換和音頻混合等功能的動態渲染。DisplayPort 既可以使用一個 PS PLL,也能使用 PL 的時鐘生成像素時鐘。


集成型可編程邏輯 (PL)
除視頻編解碼器和圖形處理以外,多媒體應用還須要其餘重要組件,如視頻數據的輸入輸出管理 , 以及處理高速視頻數據的功能。ARM Cortex-A53 核心、存儲器單元和Zynq UltraScale+ MPSoC 的諸多外設相結合,爲管理和捕獲多個不一樣來源的數據發揮了關鍵做用,然後再向 VCU 提供數據。USB 和以太網等 PS 外設可用於攝像機、網絡相機與網絡攝像頭等視頻流設備。在 PL 內可設計定製化邏輯,用於捕獲來自直播源的視頻。例如,SDI RX、HDMI RX、MIPI CSI IP 等協議都可用於捕獲不一樣來源的原始視頻。 VCU 隨後可將原始視頻編碼爲AVC 或 HEVC 壓縮比特流格式。一樣,經解碼的原始視頻也能發送至外部顯示單元,隨後可採用 PS 中的 DisplayPort 控制器(DP 控制器)顯示,或經過 HDMITX、SDI TX MIPI DSI 等其餘協議建立相關 IP。

賽靈思提供一系列顯示接口 IP,參見賽靈思 Vivado IP 目錄,便於取得許可證的用戶在 PL 中實現
顯示接口 :
• HDMI 1.4/2.0 發射器子系統和 HDMI 1.4/2.0 接收器子系統
• MIPI CSI-2 接收器子系統
• MIPI DSI 發射器子系統
• UHD-SDI 發射器子系統和 UHD-SDI 接收器子系統
視覺算法可用於採集來自原始數據的重要信息,如路標識別和針對駕駛員輔助技術的動做檢測、視頻監控面部識別、高級拍攝應用的物體與動做識別等。除收集數據外,算法還可用於音視頻廣播和視頻會議等用例中處理與操控原始數據。考慮到從此幾年視頻分辨率不可避免的攀升態勢,有關算法須要具有極高的工做速度。PL 爲此類算法提供了所需的硬件加速功能,便於大幅提升性能,知足下一代技術需求。

採用 Vivado 和 SDK 工具支持任意鏈接功能

對於硬件差別化,許多平臺開發人員使用可編程邏輯實現任意互聯。Vivado Design Suite 經過提供如下設計套件幫助系統設計者開發易用性系統:
• IP 集成器 (IPI) 工具
○ 使用原理方框圖方法整合 IP,建立整體系統
• PS 配置嚮導 (PCW)
○ 用戶能配置、啓用或禁用 PS 外設,並實現時鐘和存儲器配置等。
• IP 目錄
○ 使用 IPI 可將 IP 實例化並集成到更大系統中。此外,用戶能將本身的定製 IP 庫集成到 IP 目錄中。
Vivado Design Suite 還可提供 IP 仿真、綜合、佈局和佈線、目標器件配置以及導出至硬件等特性,能向軟件開發工具提供硬件配置信息。

賽靈思軟件開發套件 (SDK) 用其生成啓動加載器,並在執行階段向軟件傳遞專門用於某個特定硬件的信息。
SDK 用於 C/C++ 嵌入式軟件開發和調試,其基於 Eclipse 開源框架,並可提供系統性能監測功能,以便於用戶在運行時對系統性能進行監測。

就使用 Linux 操做系統的用戶而言,賽靈思可提供 PetaLinux ( 嵌入式 Linux SDK)。它可提供多面的 Linux 操做系統工具流程,能帶來全面的配置、構建及部署環境。

硬件資源有限乃至根本沒有硬件資源的團隊因開發 RTL(VHDL 或 Verilog)所需的專業技術不足,一直面臨嚴峻挑戰,而 Zynq UltraScale+ MPSoC 則爲他們提供了完美的解決方案,幫助實現可編程器件的全面優點。近期,賽靈思發佈了 SDSoC ™工具,提供了熟悉的嵌入式 C/C++/OpenCL 應用開發體驗,包括簡單易用的 Eclipse IDE 和用於異構 Zynq UltraScale+ MPSoC 部署的全面設計環境。爲縮短編程時間,SDSoC 工具還提供了系統層剖析、自動化軟件加速、自動化系統鏈接生成等功能和庫。它還支持終端用戶開發人員快速定義、集成和驗證系統級解決方案,併爲終端客戶提供定製的編程環境。用於視頻數據分析和處理的複雜算法用高級軟件編寫,可用 SDSoC 工具在 PL 中實現加速。它能縮短開發週期,同時提高性能。

 

應用示例
Zynq UltraScale+MPSoC 的可擴展電源、高性能和專用引擎使其成爲許多應用的理想選擇。
視頻會議應用
Zynq UltraScale+ MPSoC 支持高端視頻會議端點。視頻會議端點是用來進行點對點視頻通話的終端。一個完整的雙向視頻會議系統由一個視頻攝像頭和一個基本單元組成,該基本單元與每一個位置的視頻顯器鏈接。兩個基礎單元間的通訊在 IP 網絡上進行。視頻基礎單元由帶有集成型片上視頻端口的 示 DSP組成,用於處理音頻和視頻編碼/ 解碼。

邏輯資源和收發器可用來鏈接 UHD-4K 視頻攝像頭以採集原始視頻,並將其饋送至已鏈接的存儲器中。DSP 塊資源用來對採集到的數據進行圖像處理,而處理後的數據轉發給集成 VCU 進行壓縮。使用運行於 APU 子系統之上的應用軟件將壓縮後的數據進行分組,並經過以太網將其以流媒體的形式傳輸到遠程端點。
終端端點也能從遠程端點接收壓縮數據,用 VCU 將其解碼,並存儲在已鏈接的存儲器上。在 PL 中運行的軟視頻處理塊 IP 能縮小從攝像頭採集到的原始數據,並將其與解碼數據混合,隨後將其提供給顯示控制器,在 PS 或 PL 的軟 IP 中實現。
GPU 可用來建立屏幕顯示 OSD,其輸出可與來自視頻處理單元 (VPU) 的視頻輸出混合,將其發送到顯示控制器,並在監測器上顯示。參見下圖.

視頻會議應用圖

利用 Zynq UltraScale+ MPSoC

數據中心與雲計算領域的視頻轉碼
視頻轉碼是指將媒體資產從一種格式轉爲另外一種格式的過程,從而可在不一樣平臺和設備上查看視頻。大多數狀況下,進行視頻轉碼是因爲如下一種或多種狀況:

• 目標設備不支持原始數據的格式。
• 目標設備容量有限,需減少原始文件的大小。
• 必須將不兼容或過期的文件格式轉爲現代格式,從而使新設備更好地支持。

視頻轉碼流程一般分爲兩步。第一步是解碼,可將原始數據轉爲非壓縮格式。第二步是對數據從新編碼,便可將數據以所需的格式傳送到新設備上。

隨着互聯網上 Netflix 和 YouTube 等流行網站的流媒體不斷增加,並且 UHD 4K 攝像頭在市場上地位日益突顯,須要大量存儲和帶寬。

服務多樣化不斷髮展,高清視頻的日益普及,以及超高清格式(如 UHD)的出現,對編碼效率的強烈需求遠超諸如 H.264/AVC 等現有編解碼器的能力。當更高的分辨率伴隨着立體聲或多視點捕獲和顯示時,需求就更爲強烈。H.265/HEVC 編解碼器的設計旨在支持 UHD4K 和 UHD8K,而且有關工具能充分發揮並行架構的優點。與同等質量水平的H.264 編碼內容相比,HEVC 標準可以削減約 50% 的帶寬佔用。

大部分數據中心採用不一樣的壓縮格式存儲視頻,但傳輸視頻流的方式則需參照接收器所支持的格式。

爲支持有關拓撲,數據中心須要根據目標支持的格式將一種視頻格式轉碼爲其餘格式。在這種拓撲中,Zynq UltraScale+ MPSoC 器件很是適合高性能轉碼,由於它支持當前部署的技術 (H.264/AVC) 和將來新一代編解碼器標準 (HEVC)。它還具備在可編程邏輯中編程不一樣的硬件編解碼器的靈活性,從而支持各類編解碼器標準。若是在數據中心或雲計算系統中部署爲加速器,Zynq UltraScale + MPSoC 上的 VCU 就能加速轉碼過程。例如,移動用戶錄製 H.264 格式的直播視頻,並將視頻上傳到雲服務器以便未來播放。如用戶但願在僅支持 HEVC 格式的工做站上播放雲端存儲的視頻,那麼工做站可請求服務器進行內容轉碼,並以 HEVC 格式發送視頻。在接收到工做站的請求後,服務器利用集成型 VCU 做爲編解碼器加速器執行從 H.264 到 HEVC 的轉碼,並將視頻流傳輸至工做站。

視頻轉碼圖

實時轉碼的另外一個應用是監控攝像頭,攝像頭支持 H.264 壓縮,但播放設備支持 HEVC 編解碼器。在此狀況下,Zynq UltraScale+ MPSoC VCU 能完美匹配相關要求,由於它能從監控網絡 IP 攝像頭接收 H.264 壓縮數據,而後用 VCU 模塊將其轉碼爲 H.265,再將其傳輸到目標播放設備顯示播放內容。

汽車全景查看系統
汽車全景查看已改變了駕駛體驗,而 GPU 是推動該技術發展的主要力量。全景攝像系統是一種新興的汽車高級駕駛輔助系統 (ADAS) 技術,容許司機看到車輛周圍 360 度全景視圖,從而幫助司機安全泊車。

基於全景視覺圖像解決方案的實時渲染利用虛擬攝像機在 GPU 上重建全視覺測距,其中虛擬攝像機參數從實體攝像機克隆並在 GPU 上實現,生成隨實時參數變化的虛擬場景圖像。Zynq UltraScale+ MPSoC很是適合這一領域,由於 GPU 具備極高效的固定功能單元GPU 馬力用來完成綜合,以闡釋複合視圖,生成輸出像素。生成的像素多是兩個像素的組合(如輸出處於重疊區)或單個像素(如輸出處於非重疊區),用幾何查找表 (LUT) 從輸入幀提取該像素。幾何 LUT 中的每一個條目指定攝像機 ID 和輸入幀的座標,從而生成當前位置的輸出像素。網表流程隨後生成輸出幀。給定一個特定的輸出分辨率,每一個輸出位置均可以經過投影和透鏡轉換到輸入圖像中的一個位置來映射到輸入圖像。網表包括車輛周邊環境位置的 3D 世界座標和用於從給定位置的相鄰攝像機觀察場景。

進行紋理映射的相關輸入位置。將輸出表示爲碗形,其高度根據距車輛中心的距離而變化。將包括輸出網格和相關紋理映射的網表集合傳遞給圖形處理器作進一步的渲染。應用結合網表也能生成混合LUT,除了網格表,應用程序還能夠生成一個混合 LUT,它能夠對每一個位置接收到的圖像強度信息的線性組合進行編碼。採用 GL_OES_EGL_image_external 延伸,將攝像機 YUV 圖像做爲紋理傳輸給 GPU 進行渲染。

全景視圖

全景視覺系統從四個魚眼攝像頭接收輸入視頻流,並建立合成全景視圖。該系統利用幾何 LUT 編碼的映射來建立拼接的輸出圖像。

Zynq UltraScale+ MPSoC優點

Zynq UltraScale+ MPSoC 的靈活性能加速計算密集型應用程序,在 GPU、CPU 和 PL 之間共享工做負載,在 PL 中可卸載複雜的算數計算以實現硬件加速,而且在 APU 上可預先計算 OpenGL 着色語言 (GLSL) 一致變量。GPU 着色器核心上的計算僅適用於頂點和片段之間不一樣的值。整批頂點中全部保持常量的值在 CPU 上處理最爲有效。
Zynq UltraScale+ MPSoC 優點
在某些任務中,即便對於很是大的數據集,CPU 可輕鬆地賽過 GPU。此外,平臺上有可編程邏輯能爲 OpenGL 矩陣提供硬件加速,併爲複雜 3D 模型提供閃電計算。圖形系統經過流水線操做序列生成圖像,一般將其中最慢的階段稱爲流水線瓶頸。三角形等單個圖形原語具備單一圖形流水線瓶頸。可是,當渲染包含多個原語的圖形幀時,瓶頸可能會發生變化。例如,若是應用程序先渲染一組線條,再渲染一組亮的且有陰影的三角形,那麼瓶頸將可能發生變化。因爲某些流水線階段在 CPU 上執行,其餘階段在 GPU 上執行,瓶頸會不斷變化。Zynq UltraScale+ MPSoC 封裝了多個處理引擎和 PL,經過提供靈活性在 GPU、PL 和 CPU 之間執行計算的工做分配,消除性能瓶頸並提升總體吞吐量從而幫助 GPU 加速 2D 和 3D 圖形的處理。

結論Zynq UltraScale+ MPSoC 堪稱名副其實的異構多處理器SoC 平臺。所謂「名副其實」,是指其遠遠超越高性能 64 位處理器耦合可編程邏輯的範疇。它採用專用引擎進行實時處理、圖形處理以及視頻編碼與解碼。這樣用戶就能夠選擇在何處實現算法,從而優化系統性能和功耗。Zynq UltraScale+ MPSoC在軟硬件層面都能實現徹底的靈活性,同時集成了嵌入式市場上有史以來最多樣化的專用引擎。

相關文章
相關標籤/搜索