通信系統中常見射頻指標釋義

咱們常見的射頻指標不少,不少參數因爲業內人士常用,常常用簡稱,但對普通電子愛好者來講就顯得有些晦澀,甚至有些專有名詞網上去查來查去依然是雲裏霧裏,不知所云。網絡

首先,咱們瞭解下,什麼是射頻信號。射頻,Radio Frequency,簡稱RF。那麼什麼樣的信號叫作射頻信號呢?首先射頻信號指的是模擬信號,而不是數字信號。也就是說數字信號頻率再高也不能叫射頻信號。數字信號的傳輸速度單位是bps(bits per second,比特每秒),Mbps(Mega bits per second,兆比特每秒),Gbps(Giga bits per second,吉比特每秒),而模擬信號或者說交流信號的頻率單位爲Hz、MHz、GHz。咱們假設射頻信號頻率下限爲10MHz,數字信號能夠分爲低速數字信號和高速數字信號。測試

低速數字信號:R ≪f RFui

高速數字信號:R≥f RF設計

這樣低速數字信號就能夠定義爲R<10Mbps,高速數字信號定義爲R≥10Mbps。3d

由此,咱們定義頻率高於10MHz的交流信號爲射頻信號;blog

遠小於10Mbps的數字信號爲低速數字信號;部署

大於等於10Mbps的數字信號爲高速數字信號。it

一、Rx Sensitivity(接收靈敏度)io

接收靈敏度,應該是射頻領域中最基本的概念之一,是表示接收機可以在不超過必定誤碼率的狀況下識別的最低信號強度。這裏說誤碼率,是沿用GSM和WCDMA CS(Circuit Switched,電路域交換)時代的定義做一個通稱。在多數狀況下,BER (Bit Error Rate,誤比特率)或PER (Packet Error Rate,誤包率)用來考察靈敏度。而LTE用Throughput(吞吐量)來表徵靈敏度,用吞吐量不低於95%的最小信號表徵LTE的靈敏度。bfc

先來看下靈敏度的計算公式:

Sensitivity = 10log10(KT0) + 10log10(BW)+NF+CNRmin

其中10log10(KT0)表示的是室溫25℃的底噪-174dBm,在絕對零度-273℃時咱們認爲電子是不運動的,這個時候的底噪是-174dBm,室溫下電子有活動了,但底噪增長的很是有限,爲了計算方便,室溫下的底噪還記作-174dBm。

BW:Band Width,帶寬;

NF:Noise Figure,系統的噪聲係數,通常指第一個低噪放的噪聲係數;

CNRmin:Minimum Carrier Noise Ratio Allowed,系統解調所容許的最小載波噪聲比;

以LTE 20MHz業務爲例,講解下LTE靈敏度的由來。

Sensitivity(LTE) = 10log10(KT0) + 10log10(BW)+NF+CNRmin

= -174dbm + 10log10(18*10^6)+ 6db + (-1)dB

= -174dBm+72.55+6dB+(-1)dB

=-96.45dBm

BW = 18MHz for LTE 20MHz(100 RB = 100*180kHz = 18MHz)

NF = 6db(這裏的NF對系統來講就是第一級LNA以前的插損加上該LNA自身的噪聲係數NF)

CNRmin : -1db

二、SNR(信噪比)

第一部分講靈敏度的時候咱們屢次提到過SNR,SNR就是信噪比,咱們把接收機的解調信噪比定義爲不超過必定誤碼率的狀況下解調器可以解調的最低信噪比門限,S即信號Signal,或者稱爲有用信號;N即噪聲Noise,泛指一切非有用信號的信號。有用信號是通訊系統的發射機發射出來,對手機來講就是基站的發射機發出來而且經過PA放大的;而噪聲的來源則是很是普遍的,最典型的就是那個著名的-174dBm/Hz——天然噪聲底,要記住它是一個與通訊系統類型無關的量,從某種意義上講是從熱力學推算出來的(因此它跟溫度有關);另外要注意的是它其實是個噪聲功率密度(因此有dBm/Hz這個量綱),咱們接收多大帶寬的信號,就會接受多大帶寬的噪聲——因此最終的噪聲功率是用噪聲功率密度對帶寬積分得來。

三、Tx Power(發射功率)

發射功率的重要性,在於發射機的信號須要通過空間的衰落以後才能到達接收機,那麼越高的發射功率意味着越遠的通訊距離。那麼自由空間的損耗大約是個什麼數值呢?

通信系統中常見射頻指標釋義(1)
基站下行鏈路預算計算

接收器的信號接收強度爲 :Si = Pout - Ct + Gt - PL + Gr – Cr,其中Pout表示基站發射的功率,Ct基站發射信號的鏈路損耗,Gt表示發射天線增益,PL表示空間損耗,Gr表示接收天線增益,Cr表示接收信號的鏈路損耗,Si表示接收機收到的信號。

自由空間損耗,指的是電磁波在空氣中傳播時候的能量損耗,電磁波在穿透任何介質的時候都會有損耗。自由空間損耗公式:空間損耗PL=20log(F)+20log(D)+32.4;F爲頻率,單位爲MHz;D爲距離,單位爲Km。

由PL=20log(F)+20log(D)+32.4,算出來:

在2.4 GHz : 空間損耗PL=32.4+20log(2400)+20logD[km]=100 +20logD[km]

在3.5 GHz : 空間損耗PL=32.4+20log(3500)+20logD[km]=103.3 +20logD[km]

在5.8. GHz : 空間損耗PL=32.4+20log(5800)+20logD[km]=107.7 + 20 Log D[km]

通信系統中常見射頻指標釋義(1)
2.4GHz信號的自由空間衰減值

通信系統中常見射頻指標釋義(1)
3.5GHz信號的自由空間衰減值

LTE基站的廣泛功率爲40W,46dBm,假設基站部署的頻率是2.4GHz,那麼20千米外的信號大小隻有46-126=-80dBm,依然足夠手機使用;但若是是5G基站,部署在n78頻段,頻率是3.5GHz,那20千米之外的信號大小是多少呢?46-129.3=-83.3dBm,若是要保持和LTE基站一樣的覆蓋率,相應的功率就要提升3.3dB,差很少是加大一倍。

所以功率對於基站提升網絡覆蓋率是很是重要的,同理,保證手機端的上行功率對提升上行網絡接入能力也有重要意義。

附常見的介質的衰減值參考表:

通信系統中常見射頻指標釋義(1)
常見的介質的衰減值參考表

四、ACLR/ACPR

咱們把這些項目放在一塊兒,是由於它們表徵的其實是「發射機噪聲」的一部分,只是這些噪聲不是在發射信道以內,而是發射機泄漏到臨近信道中去的部分,能夠統稱爲「鄰道泄漏」。其中ACLR和ACPR(實際上是一個東西,不過一個是在終端測試中的叫法,一個是在基站測試中的叫法罷了,終端中的CDMA指標中也叫ACPR),都是以「Adjacent Channel」命名,顧名思義,都是描述本機對本系統本頻段其餘設備的干擾。並且它們有個共同點,對干擾信號的功率計算也是以一個信道帶寬爲計。這種計量方法代表,這一指標的設計目的,是考量發射機泄漏的信號,對相同或類似制式的設備接收機的干擾——干擾信號以同頻同帶寬的模式落到接收機帶內,造成對接收機接收信號的同頻干擾。

通信系統中常見射頻指標釋義(1)
ACLR的定義

在LTE中,ACLR的測試有兩種設置,EUTRA和UTRA,前者是描述LTE系統對LTE系統的干擾,後者是考慮LTE系統對UMTS(實際上就是WCDMA和TD-SCDMA)系統的干擾。因此咱們能夠看到EUTRA ACLR的測量帶寬是LTE RB的佔用帶寬,若是很差區分,看到E就是LTE。UTRA ACLR的測量帶寬是UMTS信號的佔用帶寬(FDD系統3.84MHz,TDD系統1.28MHz)。換句話說,ACLR/ACPR描述的是一種「對等的」干擾:發射信號的泄漏對一樣或者相似的通訊系統發生的干擾。實際網絡中同小區鄰小區、附近小區常常會有信號泄漏過來,因此網規網優的過程實際上就是容量最大化和干擾最小化的過程,而系統自己的鄰道泄漏對於鄰近小區就是典型的干擾信號;基站的不一樣信道或者基站與基站之間有干擾,一樣的,在手機端,也會互相干擾。在通訊系統的演化中,從運營商的投資角度來講,歷來都是「平滑過渡」的,2G–>3G–>4G–>5G,即便如今都到5G時代了,2G的GSM依然在運營,LTE引入UTRA便是考慮了LTE在與UMTS共存的情形下對前代系統的射頻干擾。B1頻段有WCDMA,有LTE,將來也有5G,所以5G系統一樣也要考慮5G對自身系統相鄰信道和LTE和UMTS的影響;

通信系統中常見射頻指標釋義(1) LTE系統測試的UTRA和E-UTRA ACLR

相關文章
相關標籤/搜索