写点什么

信息率失真函数与平均互信息

作者:timerring
  • 2023-04-10
    山东
  • 本文字数:2967 字

    阅读完需:约 10 分钟

本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown 版本已归档至【Github 仓库:https://github.com/timerring/information-theory 】或者公众号【AIShareLab】回复 信息论 获取。

信息率失真函数

Theorem [Rate-Distortion]. 以小于或等于失真 D 去重构无记忆信源所需的最小信源输出 bit/sym 称为率失真函数 (rate-distortion function),用 R(D) 表示, 记为


$$R(D)=\min {p\left(x^{\prime} \mid x\right) \mathrm{P}{\mathrm{D}}\left(X, X^{\prime}\right) \leq D} I\left(X ; X^{\prime}\right)$$


若平均失真度 不大于我们所允许的失真,即 ,则称此为保真度准则


当信源 给定, 单个符号失真度 给定时, 选择不同的试验信道 , 相当于不同的编码方法, 其所得的平均失真度不同。


试验信道


\left{\begin{array}{l}\bar{D} \leq D \text { 满足保真度准则 }\\bar{D}>D\end{array}\right.


满足 条件的所有转移概率分布 构成了一个信道集合



  • D 失真允许的试验信道: 满足保真度准则的试验信道。

  • : 所有 D 失真允许的试验信道组成的一个集合。


: 在限定失真为 的条件下信源输出的最小信息速率。


$$R(D)=\min {P{D}} I(X, Y)$$


在信源给定后,我们希望在满足一定失真的情况下,使信源必须传输给收信者的信息传输率 R 尽可能地小。若从接收端来着, 就是在满足保真度准则下, 寻找再现信源消息所必须获得的最低平均信息量。即在满足保真度准则的条件下寻找平均互信息 的最小值。


$\mathbf{P}{\mathbf{D}}\mathbf{P}{\mathbf{D}}p_{ij}\mathrm{I}(\mathrm{X}, \mathrm{Y})$ 取极小值。


对于离散无记忆信源


$$R(D)=\min {p{j i} \in P_{D}} \sum_{i} \sum_{j} p\left(a_{i}\right) p\left(b_{j} \mid a_{i}\right) \log \frac{p\left(b_{j} \mid a_{i}\right)}{p\left(b_{j}\right)}$$


例 已知编码器输入的概率分布为 , 信道矩阵

(1) ; (2)

求互信息

(1)

(2)


可见当 一定时, 而变。因为 分布一定时,信道受干扰不同,所能传递的信息量是一定时, 是关于 的下凸函数。因此当改变 时, 有一极小值。

平均互信息再讨论

平均互信息 :


  • 信源的概率分布 的上凸函数。

  • 信道传递概率 的下凸函数。

信道容量

$$C=\max {p\left(x{i}\right)} I(X ; Y)$$


  • 假定信道固定的前提下,选择一种试验信源使信息传输率最大。

  • 它所反映的是信道传输信息的能力,是信道可靠传送的最大信息传输率。


一旦找到了信道容量,它就与信源不再有关,而是信道特性的参量,随信道特性的变化而变化,不同的信道其信道容量不同


  • 研究目的:充分利用已给信道,使传输的信息量最大,而发生错误的概率任意小。

信息率失真函数

$$R(D)=\min {P{D}} I(X ; Y)$$


假定信源给定的情况下,用户可以容忍的失真度内再现信源消息所必须获得的最小平均信息量。它反映的是信源可以压缩的程度,是在满足一定失真度要求下信源可压缩的最低值。


  • 率失真函数一旦找到,就与求极值过程中选择的试验信道不再有关,而只是信源特性的参量

  • 不同的信源其 R(D)不同。

  • 研究目的:解决在已知信源和允许失真度 D 的条件下,使信源必须传送给信宿的信息率最小。即用尽可能少的码符号尽快地传送尽可能多的信源消息,以提高通信的有效性。


例: 设信源的符号表为 ,概率分布为 , , 失真函数规定为


d\left(a_{i}, a_{j}\right)=\left{\begin{array}{ll}0 & i=j \1 & i \neq j\end{array}\right.


即不发生差错时失真为 0 , 出错失真为 1 。研究 在一定编码条件下信息压缩的程度。


解:信源熵:



如果对信源进行无失真编码, 平均每个符号至少需要 个二进制码元。


现在假定允许有一定失真,失真度为 D=1/2,设想采用下面的编码方案;




则平均失真



它是一个确定信道



则输出熵 H(Y)


\begin{array}{l}H(Y)=H\left(\frac{1}{2 n}, \frac{1}{2 n} \cdots \frac{1}{2 n}, \frac{1+n}{2 n}\right) \=\log 2 n-\frac{n+1}{2 n} \log (n+1)\end{array}


比如: , 则 ,


已知信源符号 x = 0.5,经过信道传输后变为 y = 1.5,若采用汉明失真作为两个符号的失真度量,则 d(x, y)= 1


参考文献:


  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.

  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.

  3. 周炯槃. 通信原理(第 3 版)[M]. 北京:北京邮电大学出版社, 2008.

  4. 樊昌信, 曹丽娜. 通信原理(第 7 版) [M]. 北京:国防工业出版社, 2012.

发布于: 刚刚阅读数: 2
用户头像

timerring

关注

公众号【AIShareLab】 2022-07-14 加入

他日若遂凌云志

评论

发布
暂无评论
信息率失真函数与平均互信息_信息论_timerring_InfoQ写作社区