ImageVerifierCode 换一换
格式:DOCX , 页数:16 ,大小:29.91KB ,
资源ID:2608929      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bingdoc.com/d-2608929.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(香农说要有熵信息时代由此开启.docx)为本站会员(b****2)主动上传,冰点文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰点文库(发送邮件至service@bingdoc.com或直接QQ联系客服),我们立即给予删除!

香农说要有熵信息时代由此开启.docx

1、香农说要有熵信息时代由此开启香农说,要有熵。信息时代由此开启 作者:月宝 、晓桦 2016年四月三十日是克劳德艾尔伍德香农(Claude Elwood Shannon)的一百周年诞辰。虽然香农被学术届尊为信息时代之父,听说过这位科学巨人名字的想必比知道宋仲基的人少得多。不过不管你们信不信,要是没有香农,到今天咱们应该还没有见过手机或Internet,也没有用过微信或Facebook,更不能在网上看韩剧。香农是美国数学家、信息论的创始人。1948年,香农发表了通信的数学理论文章,提出了信息熵的概念,并创建了信息论。这篇文章奠定了香农“信息论之父”的地位。后来,香农在1949年继续发表了噪声下的通

2、信。几十年来,人类科技在数字化、智能化、网络化等的推动下经历了一波又一波通信、信息革命。数十年之后,在信息流、物质流的社会中,香农的论著依然闪烁着智慧之光,并将照耀人类社会今后的数个世纪。在学术圈子里,人们往往对香农高山仰止。南加州大学(University of Southern California) 电子工程系教授巴特嗑死磕(Bart Kosko)说:爱因斯坦相对论之革命性在于它颠覆了之前的牛顿力学,而香农信息论之革命性在于它前无古人 香农对信息的认知开人类之先河,没有什么挡在前面需要被颠覆的;香农提出了全新的数学工具,就是所谓的信息论,并用这个工具回答了人类从未思考过的问题。在这个意义

3、上,香农的发现像牛顿的引力定律一样基本。 克劳德艾尔伍德香农(Claude Elwood Shannon ),1916年4月30日2001年2月26日。1948年,香农(Claude Shannon)在贝尔实验室发表论文通信的数学理论。文章中提出的数学工具构成了信息论的骨架。香农证明了信源编码的极限是信源的熵,信道编码的极限则是信道容量。倚天剑一出,天下皆惊。而为达到香农预测的信道编码的极限信道容量,人类却花费了半个世纪挣扎。本篇文章试图用最少的数学科普一下信息论里最基础的概念熵(entropy)。 “二十个问题”游戏先从一个貌似不相干的西方曾经流行的游戏,“二十个问题”(the twenty

4、-question game) 说起。游戏是这样的。俺心里想一样东西,你可以问俺二十个问题,然后猜俺心里想的东西。你的问题必须是“是不是”这种形式的。比如,这个东西是不是可以放进冰箱里?这个东西是不是活的?这个东西是不是能吃?诸如此类。对于你问的每一个问题,俺必须如实地回答“是”或者“不是”。你在二十个问题之内猜到了我想的东西就算赢。 这个二十个问题的游戏曾经很受欢迎,还被做成过电子玩具。这个游戏的关键是在于如何有效地问你的问题。如果你问“明天是不是下雨”,那你肯定脑子进水了,可以不用往下看了。如果你第一个问题问的是“这东西是不是 iPhone 6”,这样的问法显然也效率不高,因为俺一旦说“N

5、O”,你只从大量的可能性中排除了一种可能,还是要面对剩下巨大的猜测空间。 这个游戏可以大致等价于这样一个数字游戏。假设M是个大于1的正整数,俺俩在玩游戏之前就商议确定好。俺在1到M之间任意想一个整数,你的任务是用最少的“是不是”形式的问题问出这个数是多少。 对于这个数字版的“二十个问题”游戏,聪明的宝宝都会发现类似这样的结论:M的数值越大,需要的问题越多。但爱钻研的同学可能会想到另一个问题:对于一个给定的问问题策略,所需问题的“多”或“少”又是用什么来衡量的呢?比方说,M=8,而你的问法是依次问如下问题:“这个数是不是1”,“这个数是不是2”,“这个数是不是3”,一直到“这个数是不是7”(如果

6、问完“这个数是不是7” 你觉得还需要问“这个数是不是8”的话,那请你去看韩剧吧)。在这种情况下,如果俺想的数字是1,你只需要一个问题就可以知道答案;而如果俺想的数字是8,你必须在问完7个问题之后才能知道答案。换句话说,即使问问题的策略确定,因为俺心里那个神秘数字的不确定性,你所需要的问题数目也是不确定的。因此我们需要把这个数字版“二十个问题”游戏更准确地描述出来,或者说,把在什么意义上“最少”定义出来。 随机变量随机变量描述的是一个随机实验可能出现的结果以及每种可能结果的可能性,也就是概率。先看一个例子。 例老千掷硬币假设某老千每次投掷硬币的结果有1/3可能性出正面,2/3的可能性出反面。那么

7、掷一次硬币就是一个随机实验,掷硬币的结果就是一个随机变量,我们这里记作大写的 X。如果把正面记作1,反面记作0,那么这个随机变量 X 可以通过一个函数P(x)来描述:函数的变量 (小写的)x 的取值范围是集合0,1,这个集合此后记作 S;函数在0和1的取值分别为:P(1)=1/3,P(0)=2/3。 从这个例子可以看出,一个随机变量 X 无非是通过在某个集合S上定义的一个函数P(x)来描述的,而这个函数不能取负值,而且必须在对其变量 x 求和的时候结果为1(在老千掷硬币的例子中即:P(0)+P(1)=1)。这个函数通常被称为随机变量X的概率分布。 当然,同样是掷硬币,可以定义出很多不同的随机变

8、量(即不同的概率分布函数P(x))来。普通人掷硬币对应的随机变量基本就是P(0)=P(1)=1/2。赌神掷硬币对应的随机变量可能是P(0)=1, P(1)=0。 生活中的随机变量比比皆是。比如,在掷骰子的时候,骰子掷出的结果这个随机变量对应于一个定义在S=1,2,.,6 上的概率分布函数 P(x),通常认为P(1)=P(2)=.=P(6)=1/6。再比如明天会不会下雨(天气预报不准的啦),会有几个人给俺这篇吐血之作点赞或转发(不晓得多少人更喜欢韩剧的啦)这些不确定的事情里都可以定义出随机变量来。记得不知道哪一位伟人曾经说过,“随机变量是到处都有的。对于我们的脑袋,不是缺少随机变量,而是缺少发现

9、。” 在前面说的那个数字版“二十个问题”游戏中,俺心里想的神秘数字对你来说也是一个随机变量,它的概率分布P(x) 是定义在S=1,2,.,M 上的函数。如果我选数字是“完全随机的”,那么,这个函数就是P(1)=P(2)=.=P(M)=1/M。这种分布通常被称为均匀分布。当然,取决于俺按什么偏好选数字,这个函数也可以取其他形式:如果俺就是喜欢2,也许俺会以更高的概率取2。 随机变量的均值 假设有个随机变量 X,它的取值范围 S=1, 2, , M,它的概率分布函数是某个定义在S上的函数 P(x)。那么这个随机变量的均值 (更文化点的说法叫数学期望值)就是这样一个东东: 1*P(1)+2*P(2)

10、+3*P(3)+ +M*P(M). 在上面老千掷硬币的例子中,随机变量 X 的均值就是 1*(1/3)+0*(2/3)=1/3。简单吧。 很多同学可能都有直觉的认识,能感觉到如果把产生这个随机变量 X 的随机实验做很多次,把得到的数字取平均,那么这个平均数差不多就是 X 的均值。这个概念,叫做大数定理,跟俺要讲的熵有着本质的联系。 独立随机变量 很多时候俺们关心的不止一个随机变量,而是很多随机变量。比如,俺们同时关心两个随机变量 X 和 Y,X 的取值范围是 1, 2, Y 的取值范围是 1, 2, 3。那么俺们可以把这两个随机变量看作一个随机变量对,写作 (X, Y), 而把它的取值范围理解

11、为所有可能的(X,Y)取值的组合,也就是 (1, 1), (1, 2), (1, 3), (2, 1), (2, 2), (2, 3)。把这个集合叫作S,那么这对随机变量就是通过一个定义在S上的概率分布函数 P(x, y) 来描述的。 当这个随机变量对的分布满足 P(x, y)=P(x)P(y) 的时候,俺们就称这两个随机变量是相互独立的。 P(0, 0) = P(0)P(0) = (2/3)(2/3)=4/9P(0, 1) = P(0)P(1) = (2/3)(1/3)=2/9P(1, 0) = P(1)P(0) = (1/3)(2/3)=2/9P(1, 1) = P(1)P(1) = (1

12、/3)(1/3)=1/9 独立随机变量的概念当然可以推广到更多的随机变量上。如果有 n 个随机变量,它们的取值无非就对应了一个长度为 n 的序列。所有这样序列的集合就是这组随机变量的取值范围。如果这些随机变量是相互独立的,那么每个序列出现的概率无非就是把这个序列中每个数出现的概率乘在一起。比如,上面的老千连续掷了10次硬币,那么出现1101011110的概率就是(1/3)(1/3)(2/3)(1/3)(2/3)(1/3)(1/3)(1/3)(1/3)(2/3)=(1/3)7 * (2/3)3 均值和大数定理 大数定理的英文是 the laws of large number, 它的中文翻译通常

13、是“大数定律”而不是大数定理。 定律或是英文里的 law 都是指不需要证明但可以被验证的理论假设。比如牛顿的万有引力定律。从数学上说,不需要证明就被接受的假设被认为是公理。但是这个大数定理并非公理,它是被严格证明出来的(证明也不复杂,只要用马尔可夫不等式或切比晒夫不等式就行了),因此准确的数学语言应该叫它“定理”。管他叫“定律”会让人以为这个东东就是假设出来的公理,从而产生歧义,当年也不知道谁这么没涵养管它叫“law”。所以,不管你们服不服,俺都要管它叫大数定理。 大数定理大概说了这样一个意思。假设有某个随机实验会产生一个随机变量 X。如果你重复做这个随机实验 n 次, 你就会得到一个随机变量

14、序列 X1, X2, X3, , Xn。这里假定这些随机变量相互独立(即这些随机实验互不影响)而且 n 是个很大的数(比如,一万,十万,百万),那么把这 n 个数加起来除以 n (即取平均),得到的数 ( 即 (X1+X2+Xn)/n )几乎总是很接近随机变量 X 的均值。 咱们用老千掷硬币的例子先看看大数定理到底说了些啥子嘛。假设那个老千掷了 n 次硬币,那么他就得到了 n 个在0, 1 里取值的数。因为这 n 个数都是随机的,这 n 个数的均值当然也是个随机变量,就是说也有一个概率分布函数,有一定的不确定性。大数定理告诉俺们,当 n 很大的时候,这 n 个数的平均值“几乎总是很接近”1/3

15、。“几乎总是”和“很接近”是可以在数学上严格定义的,套一下切比晒夫不等式得出下面这些“至少有”的结论: 当 n=1000 时,至少有 91.1% 的概率这个平均值很接近1/3。当 n=10000 时,至少有 99.1% 的概率这个平均值很接近1/3。当 n=100000 时,至少有 99.9% 的概率这个平均值很接近1/3。 如果把“很接近1/3”理解为跟 1/3 相差不到 0.02,那么: 当 n=1000 时,至少有 44.4% 的概率这个平均值很接近1/3。当 n=10000 时,至少有 94.4% 的概率这个平均值很接近1/3。当 n=100000 时,至少有 99.4% 的概率这个平

16、均值很接近1/3。当 n=1000000 时,至少有 99.9% 的概率这个平均值很接近1/3。 现在展开你想象的翅膀,你应该看到当 n 变成无穷大的时候,这个平均值就不再是“几乎总是很接近1/3”,而是“就是1/3”了! 老千掷出的序列当然是随机的、不确定的、没有规律的。这个序列的平均数虽然也在1/3周围随机跳动,但却随着 n 的增大越发确定起来。当n很小、她就在你跟前的时候,变化多端、捉摸不定的她让你无法看清;当 n 增大的时候,她渐行渐远,但她在风中颤动的身影却在你记忆的相机里慢慢聚焦,越来越清晰;直到她消逝在无限的远方,她竟定格成一幅永恒而又无比真切的画面 “二十个问题”游戏的准确规则

17、及特例 用概率论武装一下之后,同学们应该已经认识到,在“二十个问题”游戏中俺心里想的神秘数字其实就是一个随机变量 X。我们可以假设它的取值范围S=1, 2, M 和概率分布函数 P(x)都 已知。当然在实际情况下我们未必真知道 P(x),但往往可以大致估计这个函数。如果对这个分布函数我们一无所知,我们不妨认为 P(x) 是个均匀分布。 对于任意一个给定的问问题策略,如果俺心里的神秘数字是 x,我们把所需的问题个数记作 L(x)。比如 M=8,而我们用前面提到的那个从1问到7的策略问问题,我们就会得到: L(1)=1, L(2)=2, L(3)=3, L(4)=4,L(5)=5, L(6)=6,

18、 L(7)=7, L(8)=7。 (对,L(8)=7,俺没敲错。) 因为俺心里想的是个随机变量 X,在这个策略下所需要的问题数目 L(X) 就也是个随机变量。这个随机变量 L(X) 也有一个分布,在知道 P(x) 的前提下,如果想算也是可以算出来的。但是俺懒得算它。 既然 L(X) 是个随机变量,一个最自然的方式定义这个策略所需要的问题个数就是用这个随机变量的均值,或者说用平均所需要的问题个数。如果你的数字直觉好,应该可以看到,即使不求 L(X) 的分布,这个随机变量的均值其实就是 L(1)*P(1)+L(2)*P(2)+L(M)*P(M). 用 L(X) 的均值定义一个问问题策略所需要的问题

19、个数除了“自然”,还有什么物理意义吗?当然!前面的大数定理告诉咱们,如果你用这个策略玩这个游戏很多次,你所用问题个数的平均值“几乎总是很接近”L(X) 的均值。而当你玩了这个游戏无数次之后,你平均每次用的问题数就正好是这个 L(X) 的均值。 由此可见,如果俺们准备玩这个游戏很多次,那么用 L(X) 的均值定义所需要问题的个数,用金星老师的话说就是一个动作两个字:完美。至此,已经确定这个“二十个问题”游戏的准确规则,即:你要设计一种问问题的策略,当用这个策略跟俺玩很多次(更准确的说,无数次)这个游戏之后,平均每次用的问题个数要越少越好!换句话说,我们希望寻找一个最好的问问题策略,同时确定最少需

20、要多少个问题(平均意义上)。 其实在一些特殊的情况下,确定最优的问问题策略和最少需要的问题个数并不困难。 考虑这样一个特例:俺心里的神秘数字 X 的取值范围是 S=1, 2, , 8,而且 X 的概率分布函数是个均匀分布。那么最优的问问题方法就是所谓的“二分法”:每问一个问题要把这个神秘数字的可能范围缩减一半。比如这样的问法: 问题1: 把集合 1, 2, , 8 分成左右两份,左边的是 1, 2, 3, 4, 右边的是 5, 6, 7, 8。然后问:你想的数是不是在左边啊? 问题2: 根据俺的答案,你可以确定这个神秘数字只剩下四种选择。你再类似地把四种选择分成左右两份,然后问:你想的数是不是

21、在左边啊? 问题3: 根据俺的答案,你现在可以确定这个神秘数字只有两种选择,再把它们一个放左边,一个放右边。你再问:你想的数是不是在左边啊? 如此问完三个问题,你一定知道了俺的神秘数字。相信你的直觉也应该告诉你,这就是最优问法!那么在这个例子里,所需的最少问题个数就是 3。从咱们用每个问题把猜测空间一切两半的问法,同学们应该也已经认识到,这里得出的最少问题数 3 正是因为 8=23, 或者说,2= log 8. (本文中所有的对数操作均以2为底数)。 在这个例子中有个现象也值得注意一下:不管俺心里想的是个什么数字,使用二分法所需的问题数字都是3,一个完全确定,毫无随机性的数字。 这个特例显然可

22、以推广:如果神秘数字 X 的概率分布函数是在 2K 种可能性上的均匀分布,那么“二十个问题”游戏的最优策略可以通过二分法实现;在这种策略下,不论神秘数字是什么,问出它所需要的问题数都是 K,因此所需要的平均问题数也是 K。 当然,这个二分法只适合于这样的特例,当神秘数字的可能性总数不是2的多少次方的时候,或者当神秘数字的分布不均匀的时候,这种问法显然不是最优的。这个问题任意形式的最优解法曾让一个叫大卫.霍夫曼(David Huffman)的年轻学生在1951年一夜成名。不过,那已经是在香农提出信息论三年之后了。 在香农独特的视角里,这个问题并不至关重要。在想象中,当香农看到满屋子小朋友们叽叽喳

23、喳地玩这个游戏的时候,他笑了笑,说:你们慢慢玩吧。然后他点起一支烟,凝视着窗外的远方。在落霞与孤鹜齐飞的秋色里,他看到了这个游戏的另一种设计。 “二十个问题”游戏攒着玩和数据压缩 既然用 L(X) 的均值定义所需要问题的个数依赖于把这“二十个问题”游戏玩很多次,那么考虑一下这个游戏的一个变种,就是把这很多次游戏攒起来一起玩:俺拿出一张很长很长的纸条,然后随机想 n 个相互独立的神秘数字,X1, X2, , Xn (每个数字的分布都是同一个定义在 S=1, 2, , M 上的概率分布函数,P(x))。俺把这些数字一个一个地写到纸条上。这里 n 很大很大,所以纸条很长很长。然后你再来问俺“是不是”

24、台或一百台电脑来。你问俺的问题要是计算太复杂,俺也可以去搬电脑来算。总之,咱们不用管计算有多复杂,俺俩都有无限的计算能力。在这个攒着玩的“二十个问题”游戏中,怎样的问问题策略才最优呢?最优的策略所需要的平均问题数目又是多少呢? 暂且先不讨论这个问题的答案,咱们先审视一下这个新的游戏设计的应用意义吧。 想象一下, 俺写在纸条上的序列其实是俺刚写好的长篇小说(俺写下的每一个数其实对应于新华字典里的一个字),又或者俺写在纸条上的序列其实对应于俺长期夜观星象的结果,记录了不为人知的宇宙奥秘(俺写的每个数字都是对观测到的宇宙状态的描述)。在你问俺问题的时候,俺的回答将是一个长长的由Yes/No 组成的序

25、列。如果把 Yes 记作 1,No 记作 0,俺的回答其实就是一个0/1组成的序列。 一个可以取 0/1 两个值的变量,或者一个可以储存 0/1 两种不同状态的存储单元,就是人们常说的比特(bit)。所以俺的回答其实就是一个比特序列。你希望用最少的问题就等同于要求这个比特序列最短,或者说要求用最少的比特数表示俺纸条上的内容。这个问题其实就是通信中的数据压缩问题!数据压缩,又叫“信源编码”,大约是干这样一件事。假设有个信息源,就是一个能不停往外蹦信息的东西,比如一直在想神秘数字的俺,夜观星象的俺,写小说的俺,等等等等。信息源产生的信息从数学上说就是一个随机变量序列(更有文化的说法叫随机过程)。这

26、个随机变量序列可以有很多种形式,最简单形式就是其中的随机变量都相互独立而且服从相同的分布。对这个信息源进行数据压缩包括了两个环节,编码和解码。编码就是把从信息源蹦出来的随机序列表示成比特序列,而且越短越好;解码就是从比特序列中还原出信息源蹦出来的随机序列。数据压缩可以大幅度降低数据存储和通讯需要的资源,已经是现代通信技术的一个重要组成部分。 现在回到“二十个问题”游戏。如果这个游戏一个一个分开玩,其实就是在数据压缩的时候,对信息源里蹦出的每个随机变量单独做压缩。如果这个游戏攒 n 个一起玩,其实就是对随机序列中的 n 个随机变量同时进行压缩。显然,对每个随机变量单独进行压缩一定不会比对整个随机

27、序列同时做压缩效率更高 (这里的效率是用平均每个随机变量压缩后的比特数来衡量的,比特数越低,效率越高)。这里的道理是这样的:比如俺俩攒 n 个“二十个问题”游戏一起玩,但你设计问题的时候,每个问题只是针对序列中的一个随机变量,而不是针对整个序列。这样的问问题策略显然等同于把每个游戏分开玩。也就是说, 这个游戏一个一个分别玩可以认为是攒起来一起玩的一种特例。因而分别玩能达到的效率,攒起来玩也可以达到。因为同样的道理,如果这个游戏攒 2n 个一起玩,其效率也一定不比攒 n 个一起玩低。也就是说,为了提高效率,n 应该越大越好。 那么攒起来玩的效率到底最高可以达到多少呢?或者说,对一个给定的信息源,

28、平均每个蹦出来的随机变量最少需要多少个比特来表示呢?这个数字通常跟序列的长度 n 相关,而且对于任意一个给定的 n,即使俺们能够确定最优的压缩方法,精确地确定这个数字也是一件很棘手的事。不过既然俺们已经认识到 n 越大越好,那不妨考虑 n 取无穷大吧。 当 n 取无穷大时,如果俺们能够计算出信息源里平均每个蹦出的随机变量最少需要多少比特来表示,这个数字不仅标记了最优的压缩效率,它同时还有着更深刻的物理意义:它跟序列的长度 n 无关,也跟编码方法无关;换言之,这个比特数只取决于信息源本身(即 随机变量X或其分布 P(x))。因为这个比特数是由最优编码解码方法实现的,它同时说明了两件事: 1. 只

29、要解码端接收到的平均比特数不到这个数字(平均到每个随机变量上),不论用什么编码解码方法都一定无法重建信息源里蹦出的随机序列。2. 只要解码端接收到的平均比特数超过这个数字,就一定有一种编码解码方法可以使解码端重建这个序列。 这就是说,在平均意义上,你一定需要这么多比特来表达信息源里蹦出的每一个随机变量,而且只要这么多比特就够了!因此,这个比特数实际上就标注了这个信息源在以什么样的“速率”释放“信息”,或者说标注了这个信息源里蹦出的每个随机变量平均包涵了多少“信息”! 下面俺们就来看看是否可以导出这个最小比特数。 最小比特数还是二十个问题攒着玩吧。不过这次俺也不去想什么随机数了。俺就把之前例子里

30、的那个老千找来,让他躲在俺身后不停地掷硬币。俺就把他掷出的0/1结果写在纸条上。等俺写完 n 个数的时候,就让你开始问问题。前面说过,这无非就是把这个老千掷硬币的结果当作一个信息源,对这个信息源做压缩。 因为 n 很大很大,让我们先回顾一下大数定理的情怀: 老千掷出的硬币序列的平均值几乎总是很接近1/3。 根据俺之前对这句话不辞劳苦的解释,这句话也可以换一种说法,而且这种说法很重要(重要的事情说三遍!) 老千掷出的序列几乎可以肯定有差不多 n/3 个1 和 2n/3 个0!老千掷出的序列几乎可以肯定有差不多 n/3 个1 和 2n/3 个0!老千掷出的序列几乎可以肯定有差不多 n/3 个1 和

31、 2n/3 个0!这个重要结论很容易推广到掷硬币之外的任意随机变量:假设随机变量 X 是通过一个在集合 S=1, 2, , M 上定义的概率分布函数 P(x) 描述的。那么当俺们产生 n 个相互独立的这样的随机变量的时候,如果 n 是个很大的数字而 a 是 S 中的任意一个数,那么: 产生的随机序列几乎可以肯定有差不多 n*P(a) 个 a !产生的随机序列几乎可以肯定有差不多 n*P(a) 个 a !产生的随机序列几乎可以肯定有差不多 n*P(a) 个 a ! 也就是说,虽然得到的序列本身是随机的,不确定的,但是当 n 很大的时候,这个序列的组成“几乎”是“差不多确定的”! 而且可以想象,当

32、 n 无穷大的时候,这里的“几乎”和“差不多”都可以删去! 在老千掷硬币这个例子里,如果一个硬币的序列有差不多 n/3 个1 和 2n/3 个0,那么俺就管这种序列叫“典型序列”。在更普遍的意义上,相对于一个在S 上定义的分布 P(x),一个由 S 里的数字组成的长度为 n 的序列俺也管它叫典型序列,如果 S 里的每个数 a 在这个序列中出现了差不多 n*P(a) 次。在典型序列定义中的“差不多”是差多少?呵呵,跟前面的逻辑一样,如果 n 很大,差不多就是差一丁点,如果 n无穷大,差不多可以是“一点不差”! 那么上面重要的说了三遍的话用这个语言重新说,就是: 老千掷出的序列几乎可以肯定是典型的!老千掷出的序列几乎可以肯定是典型的!老千掷出的序列几乎可以肯定是典型的! 当 n 无穷大的时候,这句话里的“几乎”当然也是可以删掉的。也就是说,在 n 无穷大的时候,不典型的序列根本不会出现!那么,你问问题的时候岂不是只需要针对典型序列问问题就行了?正是如此! 那咱们看看典型序列一共有多少个。把这个要算的数记作 T。 首先注意一下每个典型序列有多大的概率被老千掷出来。因为每个典型序列“差不多”由 n/3 个1 和 2n/3 个0 组成,而这个序列中的所有随机变量又是相互独立的,那么,每个典型序列被掷出来的概率“差不多”就是 (

copyright@ 2008-2023 冰点文库 网站版权所有

经营许可证编号:鄂ICP备19020893号-2