『壹』 阐述如何计算信息熵计算以下信息熵:设某甲地的天气预报为晴(占4/8),阴(占2/8),大雨(占1

给个好评吧
『贰』 信息熵的计算公式是什么
信息熵的计算公式为H(x) = E[I(xi)] = E[ log(2,1/P(xi)) ] = -∑P(xi)log(2,P(xi)) (i=1,2,..n)。
1948年,香农提出了“信息熵”的概念,才解决了对信息的量化度量问题。信息熵这个词是C.E.Shannon(香农)从热力学中借用过来的。热力学中的热熵是表示分子状态混乱程度的物理量。香农用信息熵的概念来描述信源的不确定度。

特点:
信息熵的计算是非常复杂的。而具有多重前置条件的信息,更是几乎不能计算的。所以在现实世界中信息的价值大多是不能被计算出来的。
但因为信息熵和热力学熵的紧密相关性,所以信息熵是可以在衰减的过程中被测定出来的。因此信息的价值是通过信息的传递体现出来的。在没有引入附加价值(负熵)的情况下,传播得越广、流传时间越长的信息越有价值。
『叁』 如何计算密码所携带的信息熵
可加性与强可加性(涉及到了两个变量!)H(XY)为两个随机变量的联合熵。可加性:H(XY)等于 X的无条件熵,加上已知 X 时 Y的条件概率的熵的平均值,即条件熵。对于 X 与 Y 独立的情况有:(强可加性)信息论基础2011年3月教材和参考书傅祖芸编著《信息论-基础理论与应用》,电子工业出版社,2006第二版. 孟庆生《信息论》,西安交通大学,1986。(数学家写的研究生教材,含编码和密码)朱雪龙《应用信息论基础》,清华大学出版社,2000。(研究生教材,面向电子类,含编码方法。王育民、梁传甲《信息与编码理论》,西电教材。 (内容深入,推导过程少)沈连丰、叶芝惠编著《信息论与编码》东南大学硕士教材,科学出版社,2004,(面向通信专业)。周荫清主编《信息理论基础》北航出版社,2006(简洁,面向电子类)T. M. Cover & J. A. Thomas , Elements of Information Theory ,Addison-Wesley Pub, 1990, 清华影印。R. J. McEliece《The Theory of Information and Coding》第二版,电子工业出版社,2003。(内容简练,编码方面较全) * J.H.Van Lint 《Introction to coding theory》 GTM 86, Springer-Verlag, 1998. * Roman 《Coding and information theory》, GTM 134,新的教材:在广义信息论、网络信息论方面的内容有所增加。第一讲 1-1 信息论的主要内容 1-2 信息的度量-信息熵 1-3 信息熵的性质 信息熵 1-1. 信息论的主要内容 香农信息论最初是为了解决通信问题而提出的。通信的重要意义是勿庸置疑的。类传递思想、表达情感,就需要相互交流。人类的劳动、生产、政治、文化、日常生活等都离不开通信。人类利用眼、耳、鼻、舌、身等五种感觉器官来感受外界的信息,形成一个信息流通的体系。通信方式的不断提高,代表了人类文明和科技水平的不断提高。通信的根本任务:将一地点的消息可靠地、有效地传送到另一地点。信源干扰源信道信宿通信系统的基本模型:为了使消息可靠地、有效地传送到信宿,就需要对信源的消息进行处理;信源编码:实现有效性;信道编码:实现可靠性;密码:实现保密性及认证性;有没有可靠的、有效的处理方法?如何进行编码?香农信息论奠定了通信的理论基础。信息是消息的不确定性度量。某消息出现的概率大,它的信息量就小,相反某消息出现的概率小,则它的信息量就大。通信的关键是信息的传输问题。 信源,信源,编码信宿,信道,信道编码,信道译码,信源译码加密钥,加密解密钥,解密 干扰源提出的背景:在香农信息论出现以前,没有系统的通信理论。是香农,开创了信息论的研究,奠定了一般性通信 理论的基础。对数字通信技术的形成有很大贡献。(不论什么样的干扰信道,抓住了本质问题Shannon, 1916-2001)“A Mathematical Theory of Communication ”“ Communication Theory of Secrecy System ” About Claude Elwood Shannon: 1916年生于 Gaylord, MI 的一个小镇。母亲是一个语言教师和中学校长,父亲是一个商人。 16岁高中毕业,进入密西根大学。1936年获得电子工程和数学双学士学位。随后进入 MIT,作为研究生和研究人员。
『肆』 信息熵是什么
信息理论的鼻祖之一Claude E. Shannon把信息(熵)定义为离散随机事件的出现概率。所谓信息熵,是一个数学上颇为抽象的概念,在这里不妨把信息熵理解成某种特定信息的出现概率。而信息熵和热力学熵是紧密相关的。根据Charles H. Bennett对Maxwell's Demon的重新解释,对信息的销毁是一个不可逆过程,所以销毁信息是符合热力学第二定律的。而产生信息,则是为系统引入负(热力学)熵的过程。所以信息熵的符号与热力学熵应该是相反的。一般而言,当一种信息出现概率更高的时候,表明它被传播得更广泛,或者说,被引用的程度更高。我们可以认为,从信息传播的角度来看,信息熵可以表示信息的价值。这样子我们就有一个衡量信息价值高低的标准,可以做出关于知识流通问题的更多推论。
信息熵的计算是非常复杂的。而具有多重前置条件的信息,更是几乎不能计算的。所以在现实世界中信息的价值大多是不能被计算出来的。但因为信息熵和热力学熵的紧密相关性,所以信息熵是可以在衰减的过程中被测定出来的。因此信息的价值是通过信息的传递体现出来的。在没有引入附加价值(负熵)的情况下,传播得越广、流传时间越长的信息越有价值。
熵首先是物理学里的名词.在传播中是指信息的不确定性,一则高信息度的信息熵是很低的,低信息度的熵则高。具体说来,凡是导致随机事件集合的肯定性,组织性,法则性或有序性等增加或减少的活动过程,都可以用信息熵的改变量这个统一的标尺来度量。
『伍』 请问一幅图像的信息熵怎么计算信息熵越大越好分类,还是越小越好分类
信息熵是指信息的混乱程度,从这面角度来说,是越小越好分类
『陆』 如何计算影像的信息熵
俗语道:“人要交流,马要试骑。”人的存在就离不开交往。一个人成功的过程是了解社会,认识社会,充分利用社会给予自己的一切条件去实现自己的远大理想、目标的过程。在这个过程中,自身要与方方面面的人打交道,与那些对自己的事业有各种影响的
『柒』 信息熵只是物理概念吗
显然不是物理概念
信息熵:信息的基本作用就是消除人们对事物的不确定性。多数粒子组合之后,在它似像非像的形态上押上有价值的数码,具体地说,这就是一个在博弈对局中现象信息的混乱。
香农指出,它的准确信息量应该是
-(p1*log(2,p1) + p2 * log(2,p2) +...+p32 *log(2,p32)),
信息熵
其中,p1,p2 ,...,p32 分别是这 32 个球队夺冠的概率。香农把它称为“信息熵” (Entropy),一般用符号 H 表示,单位是比特。
有兴趣的读者可以推算一下当 32 个球队夺冠概率相同时,对应的信息熵等于五比特。有数学基础的读者还可以证明上面公式的值不可能大于五。对于任意一个随机变量 X(比如得冠军的球队),它的熵定义如下:
变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大。
信息熵是信息论中用于度量信息量的一个概念。一个系统越是有序,信息熵就越低;
反之,一个系统越是混乱,信息熵就越高。所以,信息熵也可以说是系统有序化程度的一个度量。
熵的概念源自热物理学。
假定有两种气体a、b,当两种气体完全混合时,可以达到热物理学中的稳定状态,此时熵最高。如果要实现反向过程,即将a、b完全分离,在封闭的系统中是没有可能的。只有外部干预(信息),也即系统外部加入某种有序化的东西(能量),使得a、b分离。这时,系统进入另一种稳定状态,此时,信息熵最低。热物理学证明,在一个封闭的系统中,熵总是增大,直至最大。若使系统的熵减少(使系统更加有序化),必须有外部能量的干预。
信息熵的计算是非常复杂的。而具有多重前置条件的信息,更是几乎不能计算的。所以在现实世界中信息的价值大多是不能被计算出来的。但因为信息熵和热力学熵的紧密相关性,所以信息熵是可以在衰减的过程中被测定出来的。因此信息的价值是通过信息的传递体现出来的。在没有引入附加价值(负熵)的情况下,传播得越广、流传时间越长的信息越有价值。
熵首先是物理学里的名词。
在传播中是指信息的不确定性,一则高信息度的信息熵是很低的,低信息度的熵则高。具体说来,凡是导致随机事件集合的肯定性,组织性,法则性或有序性等增加或减少的活动过程,都可以用信息熵的改变量这个统一的标尺来度量。
『捌』 求信息熵的计算方法!!
H(x)=lb,应该是求平均互信息熵。

熵的计算
『玖』 信宿Y的信息熵怎么求
Y的信息熵计算为:p(优) = 4/5 = 0.8,p(差) = 1/5 = 0.2,列X的信息熵 为: H(x)= - ( 0.8 * log2(0.8) + 0.2 * log2(0.2)) = 0.72.......
X的信息熵计算为:p(男) = 3/5 = 0.6,p(女) = 2/5 = 0.4,列X的信息熵为:H(x)= - ( 0.6 * log2(0.6) + 0.4 * log2(0.4)) = 0.97.......
由信息熵引出的条件熵,条件熵的概念类似于条件概率,就是再给定X的情况的条件下,y的信息熵。
『拾』 信息熵的计算公式,麻烦通俗地讲一下。
信息熵的计算公式:H(x) = E[I(xi)] = E[ log(2,1/P(xi)) ] = -∑P(xi)log(2,P(xi)) (i=1,2,..n)。
其中,x表示随机变量,与之相对应的是所有可能输出的集合,定义为符号集,随机变量的输出用x表示。P(x)表示输出概率函数。变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大。
信息熵是数学方法和语言文字学的结合,基本计算公式是未H = - LOG2(P)。其中,H 表示信息熵,P 表示某种语言文字的字符出现的概率,LOG2是以二为底的对数,用的是二进制,因而,信息熵的单位是比特(BIT,即二进制的0和1)。信息熵值就是信息熵的数值。

(10)一部电影的信息熵怎么计算扩展阅读:
信息熵的相关介绍:
一个信源发送出什么符号是不确定的,衡量它可以根据其出现的概率来度量。概率大,出现机会多,不确定性小;反之不确定性就大。不确定性函数f是概率P的减函数;两个独立符号所产生的不确定性应等于各自不确定性之和。
人们常常说信息很多,或者信息较少,但却很难说清楚信息到底有多少。比如一本五十万字的中文书到底有多少信息量。
直到1948年,香农提出了“信息熵”的概念,才解决了对信息的量化度量问题。信息熵这个词是C.E.香农从热力学中借用过来的。热力学中的热熵是表示分子状态混乱程度的物理量。香农用信息熵的概念来描述信源的不确定度。信息论之父克劳德·艾尔伍德·香农第一次用数学语言阐明了概率与信息冗余度的关系。
