常見射頻參數詳解

一、Rx Sensitivity(接收靈敏度)前端

接收靈敏度,這應該是最基本的概念之一,表徵的是接收機可以在不超過必定誤碼率的狀況下識別的最低信號強度。這裏說誤碼率,是沿用CS(電路交換)時代的定義做一個通稱,在多數狀況下,BER (bit error rate)或者PER (packet error rate)會用來考察靈敏度,在LTE時代乾脆用吞吐量Throughput來定義——由於LTE乾脆沒有電路交換的語音信道,可是這也是一個實實在在的進化,由於第一次咱們再也不使用諸如12.2kbps RMC(參考測量信道,實際表明的是速率12.2kbps的語音編碼)這樣的"標準化替代品"來衡量靈敏度,而是以用戶能夠實實在在感覺到的吞吐量來定義之。面試

二、SNR(信噪比)算法

講靈敏度的時候咱們經常聯繫到SNR(信噪比,咱們通常是講接收機的解調信噪比),咱們把解調信噪比定義爲不超過必定誤碼率的狀況下解調器可以解調的信噪比門限(面試的時候常常會有人給你出題,給一串NF、Gain,再告訴你解調門限要你推靈敏度)。那麼S和N分別何來?網絡

S即信號Signal,或者稱爲有用信號;N即噪聲Noise,泛指一切不帶有有用信息的信號。有用信號通常是通訊系統發射機發射出來,噪聲的來源則是很是普遍的,最典型的就是那個著名的-174dBm/Hz——天然噪聲底,要記住它是一個與通訊系統類型無關的量,從某種意義上講是從熱力學推算出來的(因此它跟溫度有關);另外要注意的是它其實是個噪聲功率密度(因此有dBm/Hz這個量綱),咱們接收多大帶寬的信號,就會接受多大帶寬的噪聲——因此最終的噪聲功率是用噪聲功率密度對帶寬積分得來。函數

三、TxPower(發射功率)性能

發射功率的重要性,在於發射機的信號須要通過空間的衰落以後才能到達接收機,那麼越高的發射功率意味着越遠的通訊距離。測試

那麼咱們的發射信號要不要講究SNR?譬如說,咱們的發射信號SNR不好,那麼到達接收機的信號SNR是否是也不好?編碼

這個牽涉到剛纔講過的概念,天然噪聲底。咱們假設空間的衰落對信號和噪聲都是效果相同的(實際上不是,信號可以通編碼抵禦衰落而噪聲不行)並且是如同衰減器通常做用的,那麼咱們假設空間衰落-200dB,發射信號帶寬1Hz,功率50dBm,信噪比50dB,接收機收到信號的SNR是多少?翻譯

接收機收到信號的功率是50-200=-150Bm(帶寬1Hz),而發射機的噪聲50-50=0dBm經過空間衰落,到達接收機的功率是0-200=-200dBm(帶寬1Hz)?這時候這部分噪聲早已被"淹沒"在-174dBm/Hz的天然噪聲底之下了,此時咱們計算接收機入口的噪聲,只須要考慮-174dBm/Hz的"基本成分"便可。 這在通訊系統的絕大部分狀況下是適用的。設計

四、ACLR/ACPR

咱們把這些項目放在一塊兒,是由於它們表徵的其實是"發射機噪聲"的一部分,只是這些噪聲不是在發射信道以內,而是發射機泄漏到臨近信道中去的部分,能夠統稱爲"鄰道泄漏"。

其中ACLR和ACPR(實際上是一個東西,不過一個是在終端測試中的叫法,一個是在基站測試中的叫法罷了),都是以"Adjacent Channel"命名,顧名思義,都是描述本機對其餘設備的干擾。並且它們有個共同點,對干擾信號的功率計算也是以一個信道帶寬爲計。這種計量方法代表,這一指標的設計目的,是考量發射機泄漏的信號,對相同或類似制式的設備接收機的干擾——干擾信號以同頻同帶寬的模式落到接收機帶內,造成對接收機接收信號的同頻干擾。

在LTE中,ACLR的測試有兩種設置,EUTRA和UTRA,前者是描述LTE系統對LTE系統的干擾,後者是考慮LTE系統對UMTS系統的干擾。因此咱們能夠看到EUTRAACLR的測量帶寬是LTE RB的佔用帶寬,UTRA ACLR的測量帶寬是UMTS信號的佔用帶寬(FDD系統3.84MHz,TDD系統1.28MHz)。換句話說,ACLR/ACPR描述的是一種"對等的"干擾:發射信號的泄漏對一樣或者相似的通訊系統發生的干擾。

這必定義是有很是重要的實際意義的。實際網絡中同小區鄰小區還有附近小區常常會有信號泄漏過來,因此網規網優的過程實際上就是容量最大化和干擾最小化的過程,而系統自己的鄰道泄漏對於鄰近小區就是典型的干擾信號;從系統的另外一個方向來看,擁擠人羣中用戶的手機也可能成爲互相的干擾源。

一樣的,在通訊系統的演化中,歷來是以"平滑過渡"爲目標,即在現有網絡上升級改造進入下一代網絡。那麼兩代甚至三代系統共存就須要考慮不一樣系統之間的干擾,LTE引入UTRA便是考慮了LTE在與UMTS共存的情形下對前代系統的射頻干擾。

五、Modulation Spectrum/Switching Spectrum

而退回到GSM系統,Modulation Spectrum(調製譜)和Switching Spectrum(切換譜,也有稱爲開關譜的,對舶來品不一樣翻譯的緣故)也是扮演了鄰道泄漏類似的角色。不一樣的是它們的測量帶寬並非GSM信號的佔用帶寬。從定義上看,能夠認爲調製譜是衡量同步系統之間的干擾,而切換譜是衡量非同步系統之間的干擾(事實上若是不對信號作gating,切換譜必定是會把調製譜淹沒掉的)。

這就牽涉到另外一個概念:GSM系統中,各小區之間是不一樣步的,雖然它用的是TDMA;而相比之下,TD-SCDMA和以後的TD-LTE,小區之間是同步的(那個飛碟形狀或者球頭的GPS天線永遠是TDD系統擺脫不了的桎梏)。

由於小區間不一樣步,因此A小區上升沿/降低沿的功率泄漏可能落到B小區的payload部分,因此咱們用切換譜來衡量此狀態下發射機對鄰信道的干擾;而在整個577us的GSM timeslot裏,上升沿/降低沿的佔比畢竟不多,多數時候兩個相鄰小區的payload部分會在時間上交疊,評估這種狀況下發射機對鄰信道的干擾就能夠參考調製譜。

六、SEM (Spectrum Emission Mask)

講SEM的時候,首先要注意它是一個"帶內指標",與spurious emission區分開來,後者在廣義上是包含了SEM的,可是着重看的實際上是發射機工做頻段以外的頻譜泄漏,其引入也更多的是從EMC(電磁兼容)的角度。

SEM是提供一個"頻譜模版",而後在測量發射機帶內頻譜泄漏的時候,看有沒有超出模版限值的點。能夠說它與ACLR有關係,可是又不相同:ACLR是考慮泄漏到鄰近信道中的平均功率,因此它以信道帶寬爲測量帶寬,它體現的是發射機在鄰近信道內的"噪聲底";SEM反映的是以較小的測量帶寬(每每100kHz到1MHz)捕捉在鄰近頻段內的超標點,體現的是"以噪聲底爲基礎的雜散發射"。

若是用頻譜儀掃描SEM,能夠看到鄰信道上的雜散點會廣泛的高出ACLR均值,因此若是ACLR指標自己沒有餘量,SEM就很容易超標。反之SEM超標並不必定意味着ACLR不良,有一種常見的現象就是有LO的雜散或者某個時鐘與LO調製份量(每每帶寬很窄,相似點頻)串入發射機鏈路,這時候即使ACLR很好,SEM也可能超標。

七、EVM(偏差矢量)

首先,EVM是一個矢量值,也就是說它有幅度和角度,它衡量的是"實際信號與理想信號的偏差",這個量度能夠有效的表達發射信號的"質量"——實際信號的點距離理想信號越遠,偏差就越大,EVM的模值就越大。

在(一)中咱們曾經解釋過爲何發射信號的信噪比不是那麼重要,緣由有二:第一是發射信號的SNR每每遠遠高於接收機解調所須要的SNR;第二是咱們計算接收靈敏度時參考的是接收機最惡劣的狀況,即在通過大幅度空間衰落以後,發射機噪聲早已淹沒在天然噪聲底之下,而有用信號也被衰減到接收機的解調門限附近。

可是發射機的"固有信噪比"在某些狀況下是須要被考慮的,譬如近距離無線通訊,典型的如802.11系列。

802.11系列演進到802.11ac的時候,已經引入了256QAM的調製,對於接收機而言,即使不考慮空間衰落,光是解調這樣高階的正交調製信號就已經須要很高的信噪比,EVM越差,SNR就越差,解調難度就越高。

作802.11系統的工程師,每每用EVM來衡量Tx線性度;而作3GPP系統的工程師,則喜歡用ACLR/ACPR/Spectrum來衡量Tx線性性能。

從起源上講,3GPP是蜂窩通訊的演進道路,從一開始就不得不關注鄰信道、隔信道(adjacent channel, alternative channel)的干擾。換句話說,干擾是影響蜂窩通訊速率的第一大障礙,因此3GPP在演進的過程當中,老是以"干擾最小化"爲目標的:GSM時代的跳頻,UMTS時代的擴頻,LTE時代RB概念的引入,都是如此。

而802.11系統是固定無線接入的演進,它是秉承TCP/IP協議精神而來,以"盡最大能力的服務"爲目標,802.11中常常會有時分或者跳頻的手段來實現多用戶共存,而佈網則比較靈活(畢竟以局域網爲主),信道寬度也靈活可變。總的來講它對干擾並不敏感(或者說容忍度比較高)。

通俗的講,就是蜂窩通訊的起源是打電話,打不通電話用戶會去電信局砸場子;802.11的起源是局域網,網絡很差大機率是先耐着性子等等(其實這時候設備是在做糾錯和重傳)。

這就決定了3GPP系列必然以ACLR/ACPR一類"頻譜再生"性能爲指標,而802.11系列則能夠以犧牲速率來適應網絡環境。

具體說來,"以犧牲速率來適應網絡環境",就是指的802.11系列中以不一樣的調製階數來應對傳播條件:當接收機發現信號差,就當即通知對面的發射機下降調製階數,反之亦然。前面提到過,802.11系統中SNR與EVM相關很大,很大程度上EVM下降能夠提升SNR。這樣咱們就有兩種途徑改善接收性能:一是下降調製階數,從而下降解調門限;二是下降發射機EVM,使得信號SNR提升。

由於EVM與接收機解調效果密切相關,因此802.11系統中以EVM來衡量發射機性能(相似的,3GPP定義的蜂窩系統中,ACPR/ACLR是主要影響網絡性能的指標);又由於發射機對EVM的惡化主要由於非線性引發(譬如PA的AM-AM失真),因此EVM一般做爲衡量發射機線性性能的標誌。

7.一、EVM與ACPR/ACLR的關係

很難定義EVM與ACPR/ACLR的定量關係,從放大器的非線性來看,EVM與ACPR/ACLR應該是正相關的:放大器的AM-AM、AM-PM失真會擴大EVM,同時也是ACPR/ACLR的主要來源。

可是EVM與ACPR/ACLR並不老是正相關,咱們這裏能夠找到一個很典型的例子:數字中頻中經常使用的Clipping,即削峯。Clipping是削減發射信號的峯均比(PAR),峯值功率下降有助於下降經過PA以後的ACPR/ACLR;可是Clipping同時會損害EVM,由於不管是限幅(加窗)仍是用濾波器方法,都會對信號波形產生損傷,於是增大EVM。

7.二、PAR的源流

PAR(信號峯均比)一般用CCDF這樣一個統計函數來表示,其曲線表示的是信號的功率(幅度)值和其對應的出現機率。譬如某個信號的平均功率是10dBm,它出現超過15dBm功率的統計機率是0.01%,咱們能夠認爲它的PAR是5dB。

PAR是現代通訊系統中發射機頻譜再生(諸如ACLP/ACPR/Modulation Spectrum)的重要影響因素。峯值功率會將放大器推入非線性區從而產生失真,每每峯值功率越高、非線性越強。

在GSM時代,由於GMSK調製的衡包絡特性,因此PAR=0,咱們在設計GSM功放的時候常常把它推到P1dB,以獲得最大限度的效率。引入EDGE以後,8PSK調製再也不是衡包絡,所以咱們每每將功放的平均輸出功率推到P1dB如下3dB左右,由於8PSK信號的PAR是3.21dB。

UMTS時代,不管WCDMA仍是CDMA,峯均比都比EDGE大得多。緣由是碼分多址系統中信號的相關性:當多個碼道的信號在時域上疊加時,可能出現相位相同的狀況,此時功率就會呈現峯值。

LTE的峯均比則是源自RB的突發性。OFDM調製是基於將多用戶/多業務數據在時域上和頻域上都分塊的原理,這樣就可能在某一"時間塊"上出現大功率。LTE上行發射用SC-FDMA,先用DFT將時域信號擴展到頻域上,等於"平滑"掉了時域上的突發性,從而下降了PAR。

八、干擾指標彙總

這裏的"干擾指標",指的是出了接收機靜態靈敏度以外,各類施加干擾下的靈敏度測試。實際上研究這些測試項的由來是頗有意思的。

咱們常見的干擾指標,包括Blocking,Desense,Channel Selectivity等。

8.一、Blocking(阻塞)

Blocking其實是一種很是古老的RF指標,早在雷達發明之初就有。其原理是以大信號灌入接收機(一般最遭殃的是第一級LNA),使得放大器進入非線性區甚至飽和。此時一方面放大器的增益驟然變小,另外一方面產生極強非線性,於是對有用信號的放大功能就沒法正常工做了。

另外一種可能的Blocking實際上是經過接收機的AGC來完成的:大信號進入接收機鏈路,接收機AGC所以產生動做下降增益以確保動態範圍;可是同時進入接收機的有用信號電平很低,此時增益不足,進入到解調器的有用信號幅度不夠。

Blocking指標分爲帶內和帶外,主要是由於射頻前端通常會有頻帶濾波器,對於帶外blocking會有抑制做用。可是不管帶內仍是帶外,Blocking信號通常都是點頻,不帶調製。事實上徹底不帶調製的點頻信號在現實世界裏並很少見,工程上只是把它簡化成點頻,用以(近似)替代各類窄帶干擾信號。

對於解決Blocking,主要是RF出力,說白了就是把接收機IIP3提升,動態範圍擴大。對於帶外Blocking,濾波器的抑制度也是很重要的。

8.二、AM Suppression

AM Suppression是GSM系統特有的指標,從描述上看,干擾信號是與GSM信號類似的TDMA信號,與有用信號同步且有固定delay。

這種場景是模擬GSM系統中鄰近小區的信號,從干擾信號的頻偏要求大於6MHz(GSM帶寬200kHz)來看,這是很典型的鄰近小區信號配置。因此咱們能夠認爲AM Suppression是一個反映GSM系統實際工做中接收機對鄰小區的干擾容忍度。

8.二、Adjacent (Alternative) Channel Suppression (Selectivity)

這裏咱們統稱爲"鄰信道選擇性"。在蜂窩系統中,咱們組網除了要考慮同頻小區,還要考慮鄰頻小區,其緣由能夠在咱們以前討論過的發射機指標ACLR/ACPR/Modulation Spectrum中能夠找到:由於發射機的頻譜再生會有很強的信號落到相鄰頻率中(通常來講頻偏越遠電平越低,因此鄰信道通常是受影響最大的),並且這種頻譜再生事實上是與發射信號有相關性的,即同制式的接收機極可能把這部分再生頻譜誤認爲是有用信號而進行解調,所謂鵲巢鳩佔。

舉個例子:若是兩個相鄰小區A和B剛好是鄰頻小區(通常會避免這樣的組網方式,這裏只是討論一個極限場景),當一臺註冊到A小區的終端遊走到兩個校區交界處,可是兩個小區的信號強度尚未到切換門限,所以終端依然保持A小區鏈接;B小區基站發射機的ACPR較高,所以終端的接收頻帶內有較高的B小區ACPR份量,與A小區的有用信號在頻率上重疊;由於此時終端距離A小區基站較遠,所以接收到的A小區有用信號強度也很低,此時B小區ACPR份量進入到終端接收機時就能夠對原有用信號形成同頻干擾。

若是咱們注意看鄰道選擇性的頻偏定義,會發現有Adjacent和Alternative的區別,對應ACLR/ACPR的第一鄰道、第二鄰道,可見通訊協議中"發射機頻譜泄漏(再生)"與"接收機鄰道選擇性"其實是成對定義的。

8.三、Co-Channel Suppression (Selectivity)

這種描述的是絕對的同頻干擾,通常是指兩個同頻小區之間的干擾模式。

按照以前咱們描述的組網原則,兩個同頻小區的距離應該儘可能遠,可是即使再遠,也會有信號彼此泄漏,只是強度高低的區別。對於終端而言,兩個校區的信號均可以認爲是"正確的有用信號"(固然協議層上有一組接入規範來防範這種誤接入),衡量終端的接收機可否避免"西風壓倒東風",就看它的同頻選擇性。

8.4 總結

Blocking是"大信號干擾小信號",RF尚有周旋餘地;而以上的AM Suppression, Adjacent (Co/Alternative) Channel Suppression (Selectivity)這些指標,是"小信號干擾大信號",純RF的工做意義不大,仍是靠物理層算法爲主。

Single-tone Desense是CDMA系統獨有的指標,它有個特色:做爲干擾信號的single-tone是帶內信號,並且距離有用信號很近。這樣就有可能產生兩種信號落到接收頻域內:第一種是因爲LO的近端相噪,LO與有用信號混頻造成的基帶信號、和LO相噪與干擾信號混頻造成的信號,都會落到接收機基帶濾波器的範圍以內,前者是有用的信號然後者是干擾;第二種是因爲接收機系統中的非線性,有用信號(有必定帶寬,譬如1.2288MHz的CDMA信號)可能與干擾信號在非線性器件上產生交調,而交調產物有可能一樣落在接收頻域以內成爲干擾。

Single-tone desense的起源是北美在發起CDMA系統時,與原有的模擬通訊系統AMPS採用了同一頻段,兩張網長期共存,做爲後來者的CDMA系統必須考慮AMPS系統對自身的干擾。

到這裏我想起當年被稱爲"通則不動,動則不通"的小靈通,由於長期佔用1900~1920MHz頻率,因此天朝TD-SCDMA/TD-LTE B39的實施一直是在B39的低段1880~1900MHz,直到小靈通退網爲止。

教科書上對Blocking的解釋比較簡單:大信號進入接收機放大器使得放大器進入非線性區,實際增益變小(對有用信號的)。

可是這樣很難解釋兩種場景:

場景一:前級LNA線性增益18dB,當大信號灌入使其達到P1dB的時候,增益是17dB;若是沒有引入其餘影響(默認LNA的NF等都沒有發生變化),那麼對整個系統的噪聲係數影響其實很是有限,無非是後級NF在計入到總NF時分母變小了一點,對整個系統的靈敏度影響不大。

場景二:前級LNA的IIP3很高所以沒有受影響,受影響的是第二級gain block(干擾信號使其達到P1dB附近),在這種狀況下整個系統NF的影響就更小了。

我在這裏拋磚引玉,提出一個觀點:Blocking的影響可能分兩部分,一部分是教科書上所講的Gain受到壓縮,另外一部分其實是放大器進入非線性區以後,有用信號在這個區域裏發生了失真。這種失真可能包括兩部分,一部分是純粹的放大器非線性形成有用信號的頻譜再生(諧波份量),另外一部分是大信號調製小信號的Cross Modulation。(能夠理解)

由此咱們還提出另外一個設想:若是咱們要簡化Blocking測試(3GPP要求是掃頻,很是費時間),也許能夠選取某些頻點,這些頻點出現Blocking信號時對有用信號的失真影響最大。

從直觀上看,這些頻點可能有:f0/N和f0*N(f0是有用信號頻率,N是天然數)。前者是由於大信號在非線性區自身產生的N次諧波份量正好疊加在有用信號頻率f0上造成直接干擾,後者是疊加在有用信號f0的N次諧波上進而影響到輸出信號f0的時域波形——解釋一下:根據帕塞瓦爾定律,時域信號的波形其實是頻域基頻信號與各次諧波的總和,當頻域上N次諧波的功率發生變化時,時域上對應的變化就是時域信號的包絡變化(發生了失真)。

九、動態範圍,溫度補償與功率控制

動態範圍,溫度補償和功率控制不少狀況下是"看不到"的指標,只有在進行某些極限測試的時候纔會表現出它們的影響,可是自己它們卻體現着RF設計中最精巧的部分。

9.一、發射機動態範圍

發射機動態範圍表徵的是發射機"不損害其餘發射指標前提下"的最大發射功率和最小發射功率。

"不損害其餘發射指標"顯得很寬泛,若是看主要影響,能夠理解爲:最大發射功率下不損害發射機線性度,最小發射功率下保持輸出信號信噪比。

最大發射功率下,發射機輸出每每逼近各級有源器件(尤爲末級放大器)的非線性區,由此常常發生的非線性表現有頻譜泄漏和再生(ACLR/ACPR/SEM),調製偏差(PhaseError/EVM)。此時最遭殃的基本上都是發射機線性度,這一部分應該比較好理解。

最小發射功率下,發射機輸出的有用信號則是逼近發射機噪聲底,甚至有被"淹沒"在發射機噪聲中的危險。此時須要保障的是輸出信號的信噪比(SNR),換句話說就是在最小發射功率下的發射機噪聲底越低越好。

在實驗室曾經發生過一件事情:有工程師在測試ACLR的時候,發現功率下降ACLR反而更差(正常理解是ACLR應該隨着輸出功率下降而改善),當時第一反應是儀表出問題了,可是換一臺儀表測試結果依然如此。咱們給出的指導意見是測試低輸出功率下的EVM,發現EVM性能不好;咱們判斷多是RF鏈路入口處的噪聲底就很高,對應的SNR顯然不好,ACLR的主要成分已經不是放大器的頻譜再生、而是經過放大器鏈路被放大的基帶噪聲。

9.二、接收機動態範圍

接收機動態範圍其實與以前咱們講過的兩個指標有關,第一個是參考靈敏度,第二個是接收機IIP3(在講干擾指標的時候屢次提到)。

參考靈敏度實際上表徵的就是接收機可以識別的最小信號強度,這裏再也不贅述。咱們主要談一下接收機的最大接收電平。

最大接收電平是指接收機在不發生失真狀況下可以接收的最大信號。這種失真可能發生在接收機的任何一級,從前級LNA到接收機ADC。對於前級LNA,咱們惟一可作的就是儘可能提升IIP3,使其能夠承受更高的輸入功率;對於後面逐級器件,接收機則採用了AGC(自動增益控制)來確保有用信號落在器件的輸入動態範圍以內。簡單的說就是有一個負反饋環路:檢測接收信號強度(太低/太高)-調整放大器增益(調高/調低)-放大器輸出信號確保落在下一級器件的輸入動態範圍以內。

這裏咱們講一個例外:多數手機接收機的前級LNA自己就帶有AGC功能,若是你仔細研究它們的datasheet,會發現前級LNA會提供幾個可變增益段,每一個增益段有其對應的噪聲係數,通常來說增益越高、噪聲係數越低。這是一種簡化的設計,其設計思想在於:接收機RF鏈路的目標是將輸入到接收機ADC的有用信號保持在動態範圍以內,且保持SNR高於解調門限(並不苛求SNR越高越好,而是"夠用就行",這是一種很聰明的作法)。所以當輸入信號很大時,前級LNA下降增益、損失NF、同時提升IIP3;當輸入信號小時,前級LNA提升增益、減少NF、同時下降IIP3。

9.三、溫度補償

通常來說,咱們只在發射機做溫度補償。

固然,接收機性能也是受到溫度影響的:高溫下接收機鏈路增益下降,NF增高;低溫下接收機鏈路增益提升,NF下降。可是因爲接收機的小信號特性,不管增益仍是NF的影響都在系統冗餘範圍以內。

對於發射機溫度補償,也能夠細分爲兩部分:一部分是對發射信號功率準確度的補償,另外一部分是對發射機增益隨溫度變化進行補償。

現代通訊系統發射機通常都進行閉環功控(除了略爲"古老"的GSM系統和Bluetooth系統),所以通過生產程序校準的發射機,其功率準確度事實上取決於功控環路的準確度。通常來說功控環路是小信號環路,且溫度穩定性很高,因此對其進行溫度補償的需求並不高,除非功控環路上有溫度敏感器件(譬如放大器)。

對發射機增益進行溫度補償則更加常見。這種溫度補償常見的有兩種目的:一種是"看得見的",一般對沒有閉環功控的系統(如前述GSM和Bluetooth),這類系統一般對輸出功率精確度要求不高,因此係統能夠應用溫度補償曲線(函數)來使RF鏈路增益保持在一個區間以內,這樣當基帶IQ功率固定而溫度發生變化時,系統輸出的RF功率也能保持在必定範圍以內;另外一種是"看不見的",一般是在有閉環功控的系統中,雖然天線口的RF輸出功率是由閉環功控精確控制的,可是咱們須要保持DAC輸出信號在必定範圍內(最多見的例子是基站發射系統數字預失真(DPD)的須要),那麼咱們就須要將整個RF鏈路的增益比較精確的控制在某個值左右——溫補的目的就在於此。

發射機溫補的手段通常有可變衰減器或者可變放大器:早期精度稍低以及低成本精度要求較低的狀況下,溫補衰減器比較常見;對精度要求更高的情形下,解決方案通常是:溫度傳感器+數控衰減器/放大器+生產校準。

9.4 發射機功率控制

講完動態範圍和溫度補償,咱們來說一個相關的、並且很是重要的概念:功率控制。

發射機功控是大多數通訊系統中必需的功能,在3GPP中常見的諸如ILPC、OLPC、CLPC,在RF設計中都是必需被測試、常常出問題、緣由很複雜的。咱們首先來說發射機功控的意義。

全部的發射機功控目的都包含兩點:功耗控制和干擾抑制。

咱們首先說功耗控制:在移動通訊中,鑑於兩端距離變化以及干擾電平高低不一樣,對發射機而言,只須要保持"足夠讓對方接收機準確解調"的信號強度便可;太低則通訊質量受損,太高則空耗功率毫無心義。對於手機這樣以電池供電的終端更是如此,每一毫安電流都需錙銖必量。

干擾抑制則是更加高級的需求。在CDMA類系統中,因爲不一樣用戶共享同一載頻(而以正交用戶碼得以區分),所以在到達接收機的信號中,任何一個用戶的信號對於其餘用戶而言,都是覆蓋在同一頻率上的干擾,若各個用戶信號功率有高有高低,那麼高功率用戶就會淹沒掉低功率用戶的信號;所以CDMA系統採起功率控制的方式,對於到達接收機的不一樣用戶的功率(咱們稱之爲空中接口功率,簡稱空口功率),發出功控指令給每一個終端,最終使得每一個用戶的空口功率同樣。這種功控有兩個特色:第一是功控精度很是高(干擾容限很低),第二是功控週期很是短(信道變化可能很快)。

在LTE系統中,上行功控也有干擾抑制的做用。由於LTE上行是SC-FDMA,多用戶也是共享載頻,彼此間也互爲干擾,因此空口功率一致一樣也是必需的。

GSM系統也是有功控的,GSM中咱們用"功率等級"來表徵功控步長,每一個等級1dB,可見GSM功率控制是相對粗糙的。

干擾受限系統

這裏提一個相關的概念:干擾受限系統。CDMA系統是一個典型的干擾受限系統。從理論上講,若是每一個用戶碼都徹底正交、能夠經過交織、解交織徹底區分開來,那麼實際上CDMA系統的容量能夠是無限的,由於它徹底能夠在有限的頻率資源上用一層層擴展的用戶碼區分無窮多的用戶。可是實際上因爲用戶碼不可能徹底正交,所以在多用戶信號解調時不可避免的引入噪聲,用戶越多噪聲越高,直到噪聲超過解調門限。

換而言之,CDMA系統的容量受限於干擾(噪聲)。

GSM系統不是一個干擾受限系統,它是一個時域和頻域受限的系統,它的容量受限於頻率(200kHz一個載頻)和時域資源(每一個載頻上可共享8個TDMA用戶)。因此GSM系統的功控要求不高(步長較粗糙,週期較長)。

9.5 發射機功率控制與發射機RF指標

講完發射機功控,咱們進而討論一下在RF設計中可能影響發射機功控的因素(相信不少同行都遇到過閉環功控測試不過的鬱悶場景)。

對於RF而言,若是功率檢測(反饋)環路設計無誤,那麼咱們對發射機閉環功控能作的事情並很少(絕大多數工做都是由物理層協議算法完成的),最主要的就是發射機帶內平坦度。

由於發射機校準事實上只會在有限的幾個頻點上進行,尤爲在生產測試中,作的頻點越少越好。可是實際工做場景中,發射機是徹底可能在頻段內任一載波工做的。在典型的生產校準中,咱們會對發射機的高中低頻點進行校準,意味着高中低頻點的發射功率是準確的,因此閉環功控在進行過校準的頻點上也是無誤的。然而,若是發射機發射功率在整個頻段內不平坦,某些頻點的發射功率與校準頻點誤差較大,所以以校準頻點爲參考的閉環功控在這些頻點上也會發生較大偏差乃至出錯。

相關文章
相關標籤/搜索