A.熵表示信源输出后,每个消息(或符号)所提供的平均信息量
B.熵表示接收者平均获得的信息量
C.熵表示信源输出前,信源的平均不确定性
D.熵表征变量X的随机性
您可能感兴趣的试卷
你可能感兴趣的试题
A.信息处理过程中熵是不会增加的
B.通过数据处理后,一般只会增加信息的损失,最多保持原来获得的信息
C.若X、Y、Z组成一个马尔可夫链,则有I(X;Z)≥I(X;Y)
D.若X、Y、Z组成一个马尔可夫链,则有I(X;Z)≤I(X;Y)
E.当消息通过多级处理器时,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小
A.它代表接收到符号集Y后所能获得的关于X的信息量
B.它有可能取负值
C.I(X;Y)=H(X)-H(X/Y)
D.0≤I(X;Y)≤H(X)
E.当X与Y相互独立时,I(X;Y)=H(X)
A.信源所发符号的概率分布与时间起点无关
B.H(X1X2…XL)=H(X1)+H(X2/X1)+H(X3/X2)+…+H(XL/XL-1)
C.H(X1X2…XL)=LH(X)
D.H(XL/XL-1)是L的单调非增函数
E.HL(X)≥H(XL/XL-1)
A.I(X;Z)≤I(X;Y)
B.I(X;Z)≥I(X;Y)
C.I(X;Z)≤I(Y;Z)
D.I(Z;X)≥I(Y;X)
E.I(Z;X)≤I(Y;X)
A.对称性
B.确定性
C.非负性
D.极值性
E.上凸性
A.00,01,10,11
B.0,10,00,01
C.1,01,001,0001
D.1,10,100,1000
A.0,11,00,11
B.00,01,10,11
C.0,10,00,01
D.1,00,1,11
A.0,11,00,11
B.00,01,00,11
C.0,10,00,01
D.1,00,1,11
A.00,01,10,11
B.0,11,00,11
C.0,10,00,01
D.1,10,100,1000
最新试题
信道剩余度与()有关。
关于离散平稳信源,下列说法错误的有()。
对于随机变量X与Y之间平均互信息的非负性,以下说法正确的是()。
高斯分布连续信源的差熵,以下说法正确的是()。
关于数据处理定理,以下说法不正确的是()。
关于自信息I(xi),下列说法不正确的()。
二元等概信源接到二元对称信道,其中错误转移概率为p,则输入0,输出1的互信息是()。
差熵的性质,以下说法错误的是()。
若X、Y、Z构成马尔可夫链,则平均互信息满足()。
对于差熵,以下说法正确的是()。