前面学了一些基础的调制方式,然而经过了调制的信号经过了信道的传输,往往已经面目全非。而接收机需要从接收的信号中处理得到原始信号,这也就是后面要探讨的问题。
# AWGN 信道
一个最基本的信道模型应该就是加性高斯白噪声(Additive White Gaussian Noise)信道,对这个信道的表述是:
r(t)=sm(t)+n(t)
其中,r(t) 是接收到的信号,sm(t) 是经过调制的信号,n(t) 是高斯白噪声。这里使用的是所谓的白噪声,是其功率谱密度Sn(f)=2N0(W/Hz),均值为 0。
尽管 AWGN 信道非常简单,但是其作为一个最基本的信道模型,能够很好的描述噪声的影响,也是其他更加复杂的信道模型的基础。
前面提到了通过标准正交基,可以用s 表述每一个信号sm(t),而噪声也可以用标准正交基来表示,得到一个各分量 I.I.D、均值为 0、方差为N0/2 的矢量形式n,这样整个信号可以表述为r=s+n。
我们考虑一个均值N0/2 白过程X(t),这个过程的正交展开式可以通过 Karhunen-Loève 变换得到:
∫ab2N0δ(t1−t2)ϕn(t2)dt2=λnϕn(t1),a<t1<b
其中2N0δ(t1−t2) 为其自相关函数,利用冲激函数的性质能够得到:
2N0ϕn(t1)=λnϕn(t1),a<t1<b
也就是说任意的标准正交基可以用于白过程的展开,展开系数的方差相同,均为N0/2。
我们现在采用一个sm(t) 的标准正交基{ϕ(t);1≤i≤N} 对信号进行展开,得到:
ri=<r(t);ϕi(t)>=∫0Tr(t)ϕi∗(t)dtsmi=<sm(t);ϕi(t)>=∫0Tsm(t)ϕi∗(t)dtni=<n(t);ϕi(t)>=∫0Tn(t)ϕi∗(t)dt
因为内积的线性性质,我们可以得到:
ri=smi+ni
然而噪声并不能够通过{ϕ(t);1≤i≤N} 完备展开,我们记
n(t)=i=1∑Nni(t)ϕi(t)+n˜(t)
不过,考虑到
n˜(t)=r(t)−i=1∑Nri⋅ϕi(t)
那么
r(t)−n˜(t)=i=1∑Nri⋅ϕi(t)=i=1∑Nsmi⋅ϕi(t)+i=1∑Nni⋅ϕi(t)
也就是n˜(t) 和信号中的其他分量正交,我们可以忽略这一部分。
而考量噪声分量ni 的均值和方差,可以得到
E[ni]=E[∫0Tn(t)ϕi∗(t)dt]=0
E[∣ni∣2]=====E[∫0Tn(t)ϕi∗(t)dt∫0Tn∗(t)ϕi(t)dt]∫0T∫0TE[n(t)n∗(τ)]ϕi∗(t)ϕi(τ)dtdτ∫0T∫0T2N0δ(t−τ)ϕi∗(t)ϕi(t)dtdτ2N0∫0Tϕi∗(τ)ϕi(τ)dτ2N0
# 最佳检测
一个接收机在接收到信号之后,对信号的处理一般是两个步骤,也就是解调 demodulate 和判决 detect。
对于输入的信号r(t),接收机将其 demodulate,得到一个N 维矢量r=[r1,r2,...,rN],这个过程也就是一个向量化的。
而针对这个向量化的信号,接收机使用一个判决函数对其进行分析,判断这个矢量对应哪一个消息m^。这个判决函数为一个RN 到{1,2,...,M} 的映射,可以表示为
g(r)=m,if r∈Dm
这里的Dm 被称为判决域(Decision Region)。
而一个最佳接收机的目的也就是使得这个判断过程的错误概率最低。
很明显,正确判断的概率是
Pc=m=1∑Pr{sm sent}∫Dmf(r∣sm)dr=m=1∑M∫Dmf(r)Pr{sm sent∣r received}
这里的f 是概率密度函数,式中第一步为先验概率,第二步中为后验概率。很明显,理想的判决方式就是使得正确判断概率最大,即
gMAP(r)=arg1≤m≤MmaxPr{sm sent∣r received}
这个也就是所谓的最大后验概率(maximum a posteriori probability, MAP)准则,利用 Bayes 公式,能够得到
gMAP(r)=arg1≤m≤MmaxPr{sm sent∣r received}=arg1≤m≤MmaxPr{r}Pr{sm}Pr{r∣sm}
如果发送的符号是等概率的,即Pr{sm}=M1,上面的式子变成
gML(r)=arg1≤m≤MmaxPr{r∣sm}
这个被称为最大似然(maximum likelihood, ML)准则。
ML 准则要求发送的符号是等概率的,如果条件不满足,ML 接收机并不是最佳的。但是实际中,MAP 需要准确知道发送消息的概率,这是比较困难的,因此 ML 是工程上一个比较好的选择。
# 差错概率
对于接收机,接收的符号错误率有时候比正确率更加重要。一个最基本的衡量标准就是符号错误率(Symbol Error Rate, SER):
Pe=m=1∑MPmPr{g(r)=m∣sm sent}=m=1∑MPmm′=m∑∫Dm′f(r∣sm)dr
然而数字通信中我们传输的实际上应该是比特而非符号,这也就引来了比特错误率的概念。我们考虑一个 MAP 接收机,其输出的比特bi 正确的概率为
Pr{bi=l∣r}=sm:bi=l∑Pr{sm∣r}
这里的概率包括了该符号正确的概率和符号错了但是对应的 bit 正确的概率,这种情况下的 MAP 判决为
gMAPi(r)=argl∈{0,1}maxsm:bi=l∑Pr{sm∣r}
对于bi,判决域分为了两个部分:
Bi,0={r∈RN:gMAPi(r)=0}Bi,1={r∈RN:gMAPi(r)=1}
那么比特错误率(Bit Error Rate, BER)错误概率可以描述为
Pb,i=l∈{0,1}∑sm:bi=l∑Pr{sm sent}∫Bi,(1−l)f(r∣sm)dr
平均的 BER 为
Pb=k1i=1∑kPb,i
我们能够推出下面的不等式
Pb≤Pe≤kPb
Proof
实际上这里需要更加严格的前提条件,但是不需要考虑了吧。
Pb==≤===≤==k1i=1∑kPr[bi=b^i]1−k1i=1∑kPr[bi=b^i]1−k1i=1∑kPr[(b1,...,bk)=(b^1,...,b^k)]1−Pr[(b1,...,bk)=(b^1,...,b^k)]Pr[(b1,...,bk)=(b^1,...,b^k)]Pei=1∑kPr[bi=b^i]k(k1i=1∑kPr[bi=b^i])kPb
# 充分统计量
我们考虑发送的消息为sm,接收机得到r=(r1,r2),如果
Pr[r∣sm]=Pr[r1,r2∣sm]=Pr[r1∣sm]Pr[r2∣r2]
这样形成了一个 Markov 链sm→r1→r2。
在这种情况下,我们不需要使用r2 就可以进行理想判决:
gopt(r)=arg1≤m≤MmaxPr{sm∣r}=arg1≤m≤MmaxPr{sm}Pr{r∣sm}=arg1≤m≤MmaxPr{sm}Pr{r1∣sm}Pr{r2∣r1}=arg1≤m≤MmaxPr{sm}Pr{r1∣sm}
这样子,我们称r1 为充分统计量(sufficient statistic),r2 为无关统计量(irrelevant statistic)。