前面学了一些基础的调制方式,然而经过了调制的信号经过了信道的传输,往往已经面目全非。而接收机需要从接收的信号中处理得到原始信号,这也就是后面要探讨的问题。

# AWGN 信道

一个最基本的信道模型应该就是加性高斯白噪声(Additive White Gaussian Noise)信道,对这个信道的表述是:

r(t)=sm(t)+n(t)r(t) = s_m(t)+n(t)

其中,r(t)r(t) 是接收到的信号,sm(t)s_m(t) 是经过调制的信号,n(t)n(t) 是高斯白噪声。这里使用的是所谓的白噪声,是其功率谱密度Sn(f)=N02S_n(f)=\frac{N_0}{2}(W/Hz),均值为 0。

尽管 AWGN 信道非常简单,但是其作为一个最基本的信道模型,能够很好的描述噪声的影响,也是其他更加复杂的信道模型的基础。

前面提到了通过标准正交基,可以用s\boldsymbol{s} 表述每一个信号sm(t)s_m(t),而噪声也可以用标准正交基来表示,得到一个各分量 I.I.D、均值为 0、方差为N0/2N_0/2 的矢量形式n\boldsymbol{n},这样整个信号可以表述为r=s+n\boldsymbol{r}=\boldsymbol{s}+\boldsymbol{n}

我们考虑一个均值N0/2N_0/2 白过程X(t)X(t),这个过程的正交展开式可以通过 Karhunen-Loève 变换得到:

abN02δ(t1t2)ϕn(t2)dt2=λnϕn(t1),a<t1<b\int_{a}^{b}\frac{N_0}{2}\delta(t_1-t_2)\phi_n(t_2){\rm d}t_2=\lambda_n\phi_n(t_1),a<t_1<b

其中N02δ(t1t2)\frac{N_0}{2}\delta(t_1-t_2) 为其自相关函数,利用冲激函数的性质能够得到:

N02ϕn(t1)=λnϕn(t1),a<t1<b\frac{N_0}{2}\phi_n(t_1)=\lambda_n\phi_n(t_1),a<t_1<b

也就是说任意的标准正交基可以用于白过程的展开,展开系数的方差相同,均为N0/2N_0/2

我们现在采用一个sm(t)s_m(t) 的标准正交基{ϕ(t);1iN}\{\phi_(t);1\le i\le N\} 对信号进行展开,得到:

ri=<r(t);ϕi(t)>=0Tr(t)ϕi(t)dtsmi=<sm(t);ϕi(t)>=0Tsm(t)ϕi(t)dtni=<n(t);ϕi(t)>=0Tn(t)ϕi(t)dtr_i=<r(t);\phi_i(t)> =\int_0^T r(t)\phi_i^*(t){\rm d}t\\[2ex] s_{mi}=<s_m(t);\phi_i(t)> =\int_0^T s_m(t)\phi_i^*(t){\rm d}t\\[2ex] n_i=<n(t);\phi_i(t)> =\int_0^T n(t)\phi_i^*(t){\rm d}t

因为内积的线性性质,我们可以得到:

ri=smi+nir_i=s_{mi}+n_i

然而噪声并不能够通过{ϕ(t);1iN}\{\phi_(t);1\le i\le N\} 完备展开,我们记

n(t)=i=1Nni(t)ϕi(t)+n˜(t)n(t)=\sum_{i=1}^{N}n_i(t)\phi_i(t)+\~{n}(t)

不过,考虑到

n˜(t)=r(t)i=1Nriϕi(t)\~{n}(t)=r(t)-\sum_{i=1}^Nr_i\cdot \phi_i(t)

那么

r(t)n˜(t)=i=1Nriϕi(t)=i=1Nsmiϕi(t)+i=1Nniϕi(t)r(t)-\~{n}(t)=\sum_{i=1}^Nr_i\cdot \phi_i(t)=\sum_{i=1}^{N}s_{mi}\cdot \phi_i(t)+\sum_{i=1}^{N}n_i\cdot \phi_i(t)

也就是n˜(t)\~n(t) 和信号中的其他分量正交,我们可以忽略这一部分。

而考量噪声分量nin_i 的均值和方差,可以得到

E[ni]=E[0Tn(t)ϕi(t)dt]=0\mathbb{E}[n_i]=\mathbb{E}[\int_0^T n(t)\phi_i^*(t){\rm d}t]=0

E[ni2]=E[0Tn(t)ϕi(t)dt0Tn(t)ϕi(t)dt]=0T0TE[n(t)n(τ)]ϕi(t)ϕi(τ)dtdτ=0T0TN02δ(tτ)ϕi(t)ϕi(t)dtdτ=N020Tϕi(τ)ϕi(τ)dτ=N02\begin{aligned} \mathbb{E}[ |n_i|^2]=&\mathbb{E}[\int_0^T n(t)\phi_i^*(t){\rm d}t\int_0^Tn^*(t)\phi_i(t){\rm d}t]\\ =&\int_0^T\int_0^T\mathbb{E}[n(t)n^*(\tau)]\phi_i^*(t)\phi_i(\tau){\rm d}t{\rm d}\tau\\ =&\int_0^T\int_0^T\frac{N_0}{2}\delta(t-\tau)\phi_i^*(t)\phi_i(t){\rm d}t{\rm d}\tau\\ =&\frac{N_0}{2}\int_0^T \phi_i^*(\tau)\phi_i(\tau){\rm d}\tau\\ =&\frac{N_0}{2} \end{aligned}

# 最佳检测

一个接收机在接收到信号之后,对信号的处理一般是两个步骤,也就是解调 demodulate 和判决 detect。

对于输入的信号r(t)r(t),接收机将其 demodulate,得到一个NN 维矢量r=[r1,r2,...,rN]\boldsymbol{r}=[r_1,r_2,...,r_N],这个过程也就是一个向量化的。

而针对这个向量化的信号,接收机使用一个判决函数对其进行分析,判断这个矢量对应哪一个消息m^\hat{m}。这个判决函数为一个RN\mathbb{R}^N{1,2,...,M}\{1,2,...,M\} 的映射,可以表示为

g(r)=m,if rDmg(\boldsymbol{r})=m,if\ \boldsymbol{r}\in\mathcal{D}_m

这里的Dm\mathcal{D}_m 被称为判决域(Decision Region)。

而一个最佳接收机的目的也就是使得这个判断过程的错误概率最低。

很明显,正确判断的概率是

Pc=m=1Pr{sm sent}Dmf(rsm)dr=m=1MDmf(r)Pr{sm sentr received}P_c=\sum_{m=1}Pr\{\boldsymbol{s}_m\ sent\}\int_{\mathcal{D}_{m}}f(\boldsymbol{r}|\boldsymbol{s}_m){\rm d}\boldsymbol{r} =\sum_{m=1}^{M}\int_{\mathcal{D}_m}f(\boldsymbol{r})Pr\{\boldsymbol{s}_m\ sent|\boldsymbol{r}\ received\}

这里的ff 是概率密度函数,式中第一步为先验概率,第二步中为后验概率。很明显,理想的判决方式就是使得正确判断概率最大,即

gMAP(r)=argmax1mMPr{sm sentr received}g_{MAP}(\boldsymbol{r})=\arg\max_{1\le m\le M}Pr\{\boldsymbol{s}_m\ sent|\boldsymbol{r}\ received\}

这个也就是所谓的最大后验概率(maximum a posteriori probability, MAP)准则,利用 Bayes 公式,能够得到

gMAP(r)=argmax1mMPr{sm sentr received}=argmax1mMPr{sm}Pr{rsm}Pr{r}g_{MAP}(\boldsymbol{r})=\arg\max_{1\le m\le M}Pr\{\boldsymbol{s}_m\ sent|\boldsymbol{r}\ received\}=\arg\max_{1\le m\le M}\frac{Pr\{\boldsymbol{s}_m\}Pr\{\boldsymbol{r}|\boldsymbol{s}_m\}}{Pr\{\boldsymbol{r}\}}

如果发送的符号是等概率的,即Pr{sm}=1MPr\{\boldsymbol{s}_m\}=\frac{1}{M},上面的式子变成

gML(r)=argmax1mMPr{rsm}g_{ML}(\boldsymbol{r})=\arg\max_{1\le m\le M}Pr\{\boldsymbol{r}|\boldsymbol{s}_m\}

这个被称为最大似然(maximum likelihood, ML)准则。

ML 准则要求发送的符号是等概率的,如果条件不满足,ML 接收机并不是最佳的。但是实际中,MAP 需要准确知道发送消息的概率,这是比较困难的,因此 ML 是工程上一个比较好的选择。

# 差错概率

对于接收机,接收的符号错误率有时候比正确率更加重要。一个最基本的衡量标准就是符号错误率(Symbol Error Rate, SER):

Pe=m=1MPmPr{g(r)msm sent}=m=1MPmmmDmf(rsm)drP_e=\sum_{m=1}^{M}P_mPr\{g(\boldsymbol{r})\neq m|\boldsymbol{s}_m \ sent\}\\[2ex] =\sum_{m=1}^{M}P_m\sum_{m'\neq m}\int_{\mathcal{D}_m'}f(\boldsymbol{r}|\boldsymbol{s}_m){\rm d}\boldsymbol{r}

然而数字通信中我们传输的实际上应该是比特而非符号,这也就引来了比特错误率的概念。我们考虑一个 MAP 接收机,其输出的比特bib_i 正确的概率为

Pr{bi=lr}=sm:bi=lPr{smr}Pr\{b_i=l|\boldsymbol{r}\}=\sum_{\boldsymbol{s}_m:b_i=l}Pr\{\boldsymbol{s}_m|\boldsymbol{r}\}

这里的概率包括了该符号正确的概率和符号错了但是对应的 bit 正确的概率,这种情况下的 MAP 判决为

gMAPi(r)=argmaxl{0,1}sm:bi=lPr{smr}g_{MAPi}(\boldsymbol{r})=\arg\max_{l\in\{0,1\}}\sum_{s_m:b_i=l}Pr\{\boldsymbol{s}_m|\boldsymbol{r}\}

对于bib_i,判决域分为了两个部分:

Bi,0={rRN:gMAPi(r)=0}Bi,1={rRN:gMAPi(r)=1}\mathcal{B}_{i,0}=\{\boldsymbol{r}\in\mathbb{R}^N:g_{MAPi}(\boldsymbol{r})=0\}\\[2ex] \mathcal{B}_{i,1}=\{\boldsymbol{r}\in\mathbb{R}^N:g_{MAPi}(\boldsymbol{r})=1\}

那么比特错误率(Bit Error Rate, BER)错误概率可以描述为

Pb,i=l{0,1}sm:bi=lPr{sm sent}Bi,(1l)f(rsm)drP_{b,i}=\sum_{l\in\{0,1\}}\sum_{\boldsymbol{s}_m:b_i=l}Pr\{\boldsymbol{s}_m\ sent\}\int_{\mathcal{B}_{i,(1-l)}}f(\boldsymbol{r}|\boldsymbol{s}_m){\rm d}\boldsymbol{r}

平均的 BER 为

Pb=1ki=1kPb,iP_b=\frac{1}{k}\sum_{i=1}^{k}P_{b,i}

我们能够推出下面的不等式

PbPekPbP_b\le P_e\le kP_b

Proof

实际上这里需要更加严格的前提条件,但是不需要考虑了吧。

Pb=1ki=1kPr[bib^i]=11ki=1kPr[bi=b^i]11ki=1kPr[(b1,...,bk)=(b^1,...,b^k)]=1Pr[(b1,...,bk)=(b^1,...,b^k)]=Pr[(b1,...,bk)(b^1,...,b^k)]=Pei=1kPr[bib^i]=k(1ki=1kPr[bib^i])=kPb\begin{aligned} P_b=&\frac{1}{k}\sum_{i=1}^{k}Pr[b_i\neq\hat{b}_i]\\ =&1-\frac{1}{k}\sum_{i=1}^{k}Pr[b_i=\hat{b}_i]\\ \le& 1-\frac{1}{k}\sum_{i=1}^{k}Pr[(b_1,...,b_k)=(\hat{b}_1,...,\hat{b}_k)]\\ =&1-Pr[(b_1,...,b_k)=(\hat{b}_1,...,\hat{b}_k)]\\ =&Pr[(b_1,...,b_k)\neq(\hat{b}_1,...,\hat{b}_k)]\\ =&P_e\\ \le&\sum_{i=1}^k Pr[b_i\neq\hat{b}_i]\\ =&k(\frac{1}{k}\sum_{i=1}^k Pr[b_i\neq\hat{b}_i])\\ =&kP_b \end{aligned}

# 充分统计量

我们考虑发送的消息为sm\boldsymbol{s}_m,接收机得到r=(r1,r2)\boldsymbol{r}=(r_1,r_2),如果

Pr[rsm]=Pr[r1,r2sm]=Pr[r1sm]Pr[r2r2]Pr[\boldsymbol{r}|\boldsymbol{s}_m]=Pr[r_1,r_2|\boldsymbol{s}_m]=Pr[r_1|\boldsymbol{s}_m]Pr[r_2|r_2]

这样形成了一个 Markov 链smr1r2\boldsymbol{s}_m\rightarrow r_1\rightarrow r_2

在这种情况下,我们不需要使用r2r_2 就可以进行理想判决:

gopt(r)=argmax1mMPr{smr}=argmax1mMPr{sm}Pr{rsm}=argmax1mMPr{sm}Pr{r1sm}Pr{r2r1}=argmax1mMPr{sm}Pr{r1sm}g_{opt}(\boldsymbol{r})=\arg\max_{1\le m\le M}Pr\{\boldsymbol{s}_m|\boldsymbol{r}\}=\arg\max_{1\le m\le M}Pr\{\boldsymbol{s}_m\}Pr\{\boldsymbol{r}|\boldsymbol{s}_m\}\\[2ex] =\arg\max_{1\le m\le M}Pr\{\boldsymbol{s}_m\}Pr\{r_1|\boldsymbol{s}_m\}Pr\{r_2|r_1\}\\[2ex] =\arg\max_{1\le m\le M}Pr\{\boldsymbol{s}_m\}Pr\{r_1|\boldsymbol{s}_m\}

这样子,我们称r1r_1 为充分统计量(sufficient statistic),r2r_2 为无关统计量(irrelevant statistic)。

此文章已被阅读次数:正在加载...更新于