香农的简介
- 格式:doc
- 大小:38.50 KB
- 文档页数:4
“通信的基本问题就是在一点重新准确地或近似地再现另一点所选择的消息”。
这是数学家香农(ClaudeE.Shanon)在他的惊世之著《通信的数学理论》中的一句铭言。
正是沿着这一思路,他应用数理统计的方法来研究通信系统,从而创立了影响深远的信息论。
香农,1816年生于美国密执安州的加洛德。
在大学中他就表现出了对数理问题的高度敏感。
香农于1916年4月30日出生于美国密歇根州的Petoskey,并且是爱迪生的远亲戚。
1936年毕业于密歇根大学并获得数学和电子工程学士学位。
1940年获得麻省理工学院(MIT)数学博士学位和电子工程硕士学位。
1941年他加入贝尔实验室数学部,工作到1972年。
1956年他成为麻省理工学院(MIT)客座教授,并于1958年成为终生教授,1978年成为名誉教授。
香农博士于2001年2月26日去世,享年84岁。
他的硕士论文就是关于布尔代数在逻辑开关理论中的应用。
后来,他就职于贝尔电话研究所。
在这个世界上最大的通信公司(美国电话电报公司)的研究基地里,他受着前辈的工作的启示,其中最具代表性的是《贝尔系统技术杂志》上所披露的奈奎斯特的《影响电报速率的一些因素》和哈特莱的《信息的传输》。
正是他们最早研究了通信系统的信息传输能力,第一次提出了信息量的概念,并试图用教学公式予以描述。
而香衣则创造性地继承了他们的事业,在信息论的领域中钻研了8年之久,终于在1948年也在《贝尔系统技术杂志》上发表了244页的长篇论著,这就是上面提到的那篇《通信的数学理论》。
次年,他又在同一杂志上发表了另一篇名著《噪声下的通信》。
在这两篇文章中,他解决了过去许多悬而未决的问题:经典地阐明了通信的基本问题,提出了通信系统的模型,给出了信息量的数学表达式,解决了信道容量、信源统计特性、信源编码、信道编码等有关精确地传送通信符号的基本技术问题。
两篇文章成了现在信息论的寞基著作。
而香农,也一鸣惊人,成了这门新兴学科的点基人。
香农的生平简介香农是现代信息论的著名创始人。
现代信息论的出现,对现代通信技术和电子计算机的设计,产生了巨大的影响。
如果没有信息论,现代的电子计算机是无法研制成功的。
香农在美国密执安大学和麻省理工学院学习时,修过布尔代数课,并在布尔的指导下使用微分分析仪,这使他对继电器电路的分析产生兴趣。
他认为这些电路的设计可用符号逻辑来实现,并意识到分析继电器的有效数学工具正是布尔代数。
1938年,香农发表了著名的论文《继电器和开关电路的符号分析》,首次用布尔代数进行开关电路分析,并证明布尔代数的逻辑运算,可以通过继电器电路来实现,明确地给出了实现加,减,乘,除等运算的电子电路的设计方法。
这篇论文成为开关电路理论的开端。
香农在贝尔实验室工作中进一步证明,可以采用能实现布尔代数运算的继电器或电子元件来制造计算机,香农的理论还为计算机具有逻辑功能奠定了基础,从而使电子计算机既能用于数值计算,又具有各种非数值应用功能,使得以后的计算机在几乎任何领域中都得到了广泛的应用。
信息论的创始人香农对现代电子计算机的产生和发展有重要影响,是电子计算机理论的重要奠基人之一。
克劳德·艾尔伍德·香农(Claude Elwood Shannon ,1916年4月30日—2001年2月26日)美国数学家、信息论的创始人。
香农于1916年4月30日出生于美国密歇根州的Petoskey,1936年毕业于密歇根大学并获得数学和电子工程学士学位,1940年获得麻省理工学院(MIT)数学博士学位和电子工程硕士学位。
1941年他加入贝尔实验室数学部,工作到1972年。
1956年他成为麻省理工学院(MIT)客座教授,并于1958年成为终生教授,1978年成为名誉教授。
香农博士于2001年2月26日去世,享年84岁。
香农于1940年在普林斯顿高级研究所(The Institute for Advanced Study at Princeton)期间开始思考信息论与有效通信系统的问题。
首页 | 博客群 | 公社 | 专栏 | 论坛 | 图片 | 资讯 | 注册 | 帮助 | 博客联播 | 随机访问sogsblog图灵的生平简介- -| 回首页| 2005年索引| - -西蒙的生平简介香农的生平简介香农是现代信息论的著名创始人。
现代信息论的出现,对现代通信技术和电子计算机的设计,产生了巨大的影响。
如果没有信息论,现代的电子计算机是无法研制成功的。
香农在美国密执安大学和麻省理工学院学习时,修过布尔代数课,并在布尔的指导下使用微分分析仪,这使他对继电器电路的分析产生兴趣。
他认为这些电路的设计可用符号逻辑来实现,并意识到分析继电器的有效数学工具正是布尔代数。
1938年,香农发表了著名的论文《继电器和开关电路的符号分析》,首次用布尔代数进行开关电路分析,并证明布尔代数的逻辑运算,可以通过继电器电路来实现,明确地给出了实现加,减,乘,除等运算的电子电路的设计方法。
这篇论文成为开关电路理论的开端。
香农在贝尔实验室工作中进一步证明,可以采用能实现布尔代数运算的继电器或电子元件来制造计算机,香农的理论还为计算机具有逻辑功能奠定了基础,从而使电子计算机既能用于数值计算,又具有各种非数值应用功能,使得以后的计算机在几乎任何领域中都得到了广泛的应用。
信息论的创始人香农对现代电子计算机的产生和发展有重要影响,是电子计算机理论的重要奠基人之一。
克劳德·艾尔伍德·香农(Claude Elwood Shannon ,1916年4月30日—2001年2月26日)美国数学家、信息论的创始人。
香农于1916年4月30日出生于美国密歇根州的Petoskey,1936年毕业于密歇根大学并获得数学和电子工程学士学位,1940年获得麻省理工学院(MIT)数学博士学位和电子工程硕士学位。
1941年他加入贝尔实验室数学部,工作到1972年。
1956年他成为麻省理工学院(MIT)客座教授,并于1958年成为终生教授,1978年成为名誉教授。
香农:信息论的奠基者(1)个人简介克劳德·香农(Claude Shannon,1916年4月30日—2001年2月24日)是美国数学家、信息论的创始人。
1916年4月30日出生于美国密歇根州的加洛德(Petoskey)。
1936年毕业于密歇根大学并获得数学和电子工程学士学位。
1940年获得麻省理工学院(MIT)数学博士学位和电子工程硕士学位。
1941年他加入贝尔实验室数学部,工作到1972年。
1956年他成为麻省理工学院(MIT)客座教授,并于1958年成为终生教授,1978年成为名誉教授。
香农博士于2001年2月26日去世,享年84岁。
香农提出了信息熵的概念,创立香农三大定理,为信息论和数字通信奠定了基础。
主要论文有:1938年的硕士论文《继电器与开关电路的符号分析》,1948年的《通讯的数学原理》和1949年的《噪声下的通信》。
被誉为信息论的创始人。
——摘自百度百科(2)非凡风采香农在工作香农在贝尔实验室老年香农(3)主要贡献香农在普林斯顿高级研究所(The Institute for Advanced Study at Princeton)期间,开始思考信息论与有效通信系统的问题。
经过8年的努力,从1948年6月到10月,香农在《贝尔系统技术杂志》(Bell System Technical Journal)上连载发表了影响深远的论文《通讯的数学原理》。
1949年,香农又在该杂志上发表了另一著名论文《噪声下的通信》。
在这两篇论文中,香农解决了过去许多悬而未决的问题:阐明了通信的基本问题,给出了通信系统的模型,提出了信息量的数学表达式,并解决了信道容量、信源统计特性、信源编码、信道编码等一系列基本技术问题。
两篇论文成为了信息论的基础性理论著作。
——选自维基百科(4)一个理论改变了一个时代——香农诞辰百年纪念(2016)今年是信息论的创始人香农(C.E.Shannon,1916-2016)诞辰100周年。
香农公式简介一、香农简介香农——信息论的奠基人“通信的基本问题就是在一点重新准确地或近似地再现另一点所选择的消息”。
这是数学家香农(Claude E.Shanon)在他的惊世之著《通信的数学理论》中的一句名言。
正是沿着这一思路他应用数理统计的方法来研究通信系统,从而创立了影响深远的信息论。
香农,1816年生于美国密执安州的加洛德。
在大学中他就表现出了对数理问题的高度敏感。
他的硕士论文就是关于布尔代数在逻辑开关理论中的应用。
后来,他就职于贝尔电话研究所。
在这个世界上最大的通信公司(美国电话电报公司)的研究基地里,他受着前辈的工作的启示,其中最具代表性的是《贝尔系统技术杂志》上所披露的奈奎斯特的《影响电报速率的一些因素》和哈特莱的《信息的传输》。
正是他们最早研究了通信系统的信息传输能力,第一次提出了信息量的概念,并试图用教学公式予以描述。
而香衣则创造性地继承了他们的事业,在信息论的领域中钻研了8年之久,终于在1948年也在《贝尔系统技术杂志》上发表了244页的长篇论著,这就是上面提到的那篇《通信的数学理论》。
次年,他又在同一杂志上发表了另一篇名著《噪声下的通信》。
在这两篇文章中,他解决了过去许多悬而未决的问题:经典地阐明了通信的基本问题,提出了通信系统的模型,给出了信息量的数学表达式,解决了信道容量、信源统计特性、信源编码、信道编码等有关精确地传送通信符号的基本技术问题。
两篇文章成了现在信息论的奠基著作。
而香农,也一鸣惊人,成了这门新兴学科的奠基人。
那时,他才不过刚刚三十出头。
二、香农公式香农(Shannon)在其信息论中得到有名公式:其中,B是信道频带宽度(简称带宽)S是信号功率谱密度N是信道噪声功率谱密度C是信道容量香农公式表明了一个无误差地传输信息的能力同存在与信道中的信噪比以及用于传输信息的信道带宽之间的关系。
对于给定的信道容量 C 可以用不同的带宽W 和信噪比S/N的组合来传输信息。
如减少带宽则必须发送较大的信号功率;如有较大的传输带宽,则同样的信道容量能够用较小的信号功率(较小的S/N)来传送,这表明宽带系统表现出较好的抗干扰性。
5. 克劳德. 艾尔伍德. 香农(Claude Elwood Shannon)——数学家、信息论的创始人克劳德·艾尔伍德·香农(1916—2001)——1916年4月30日出生于美国密歇根州的加洛德(Petoskey),1936年毕业于密歇根大学并获得数学和电子工程学士学位,1940年获得麻省理工学院(MIT)数学博士学位和电子工程硕士学位。
1941年他加入贝尔实验室数学部,工作到1972年。
1956年他成为麻省理工学院(MIT)客座教授,并于1958年成为终生教授,1978年成为名誉教授。
香农博士于2001年2月26日去世,享年84岁。
香农在普林斯顿高级研究所(The Institute for Advanced Study at Princeton)期间,开始思考信息论与有效通信系统的问题。
经过8年的努力,从1948年6月到10月,香农在《贝尔系统技术杂志》(Bell System Technical Journal)上连载发表了影像深远的论文《通讯的数学原理》。
1949年,香农又在该杂志上发表了另一著名论文《噪声下的通信》。
在这两篇论文中,香农解决了过去许多悬而未决的问题:阐明了通信的基本问题,给出了通信系统的模型,提出了信息量的数学表达式,并解决了信道容量、信源统计特性、信源编码、信道编码等一系列基本技术问题。
两篇论文成为了信息论的基础性理论著作。
那时,他才不过刚刚三十出头。
香农的成就轰动了世界,激起了人们对信息论的巨大热情,它向各门学科冲击,研究规模象浪雪球一样越来越大。
不仅在电子学的其他领域,如计算机、自动控制等方面大显身手,而且遍及物理学、化学、生物学、心理学、医学、经济学、人类学、语音学、统计学、管理学……等学科。
它已远远地突破了香衣本人所研究和意料的范畴,即从香农的所谓“狭义盾息论”发展到了“广义信息论”。
香农一鸣惊人,成了这门新兴学科的寞基人。
20世纪80年代以来,当人们在议论未来的时候,人们的注意力又异口同声的集中到信息领域。
第四节Shannon理论简介密码体制安全性标准计算安全性(computational security) 可证明安全性(provable security)无条件安全性(unconditional security)计算安全性这种度量涉及到攻击密码体制所作的计算上的努力。
如果使用最好的算法攻破一个密码体制需要至少N次操作,这里的N是一个特定的非常大的数字,我们可以定义这个密码体制是计算安全的。
可证明安全性另外一种途径是将密码体制的安全性归结为某个经过深入研究的数学难题。
例如,可以证明这样一类命题:如果给定的整数是不可分解的,那么给定的密码体制是不可破解的。
我们称这种类型的密码体制是可证明安全的。
注: 这种途径只是说明了安全性和另一个问题是相关的,并没有完全证明是安全的。
无条件安全性这种度量考虑的是对攻击者的计算量没有限制的时候的安全性。
即使提供了无穷的计算资源,也是无法被攻破的,我们定义这种密码体制是无条件安全的。
问题:计算安全性、可证明安全性、无条件安全性中哪种安全标准更实用?在上面三种安全标准的判定中,只有无条件安全性和信息论有关,即通过信息论来证明传递过程中无信息泄露。
下面来建立密码学中的信息论模型。
密码学中的信息论模型密码系统的保密性能及破译一个密码系统都和信息论密切相关。
我们知道,信息的传输是由通信系统完成的,而信息的保密则是由密码系统来完成。
在通信过程中发送方发出的信息在信道中进行传输时往往受到各种干扰,使m出错而变成m′,一般m′≠m。
合法接收者要从m′恢复m,必须识别m′中哪些信息是出错的。
为此他要求发送方对m进行适当编码,即按一定的规则增加部分码字,使合法接收者通过译码器把m′中的错误纠正过来。
对消息m进行加密的作用类似于对m进行干扰,密文c相当于被干扰的信息m′,破译者相当于在有干扰的信道下的接收者, 他要设法去掉这种“干扰”恢复原明文。
密码系统图示信源M加密器解密器信宿M信道m c c m密钥k破译者c这样便出现了如下问题: 密码设计者在设计密码体制时, 要尽可能地使破译者从密文c中少获得原明文信息, 而破译者则要从密文c中尽可能多地获得原明文信息。
一、香农及其贡献简介克劳德·香农是一位美国数学工程师,作为信息论的创始人,人们认为他是20世纪最伟大的科学家之一。
他在通信技术与工程方面的创造性工作,为计算机与远程通信奠定了坚实的理论基础。
人们尊崇香农为信息论及数字通信时代的奠基之父。
确实,他对人类的贡献超过了一般的诺贝尔获奖者。
回顾20世纪的信息革命风暴,经他阐明的信息概念、连同“比特”这个单位已经深入人心,成为今天日常生活都离不开的词汇。
1948年香农在Bell System Technical Journal上发表了《A Mathematical Theory of Communication 》。
在这篇论文中,香农首次引入“比特”(bit)一词,如果在信号中附加额外的比特,就能使传输错误得到纠正。
按照物理学的习惯,把电流单位叫做“安培”,如果给“比特流”一个单位名,那么叫做“香农”是比较合适的。
这篇奠基性的论文是建立在香农对通信的观察上,即“通信的根本问题是报文的再生,在某一点与另外选择的一点上报文应该精确地或者近似地重现”。
这篇论文建立了信息论这一学科,给出了通信系统的线性示意模型,即信息源、发送者、信道、接收者、信息宿,这是一个新思想。
此后,通信就考虑为把电磁波发送到信道中,通过发送1和0的比特流,人们可以传输图像、文字、声音等等。
今天这已司空见惯,但在当时是相当新鲜的。
他建立的信息理论框架和术语已经成为技术标准。
他的理论在通信工程师中立即获得成功,并刺激了今天信息时代所需要的技术发展。
在这篇论文中,香农首次引入“比特”(bit)一词,如果在信号中附加额外的比特,就能使传输错误得到纠正。
按照物理学的习惯,把电流单位叫做“安培”,如果给“比特流”一个单位名,那么叫做“香农”是比较合适的。
后来,香农感到由他扮演重要角色而开始与通信革命走得有些过远。
他写道:“信息理论可能像一个升空的气球,其重要性超过了它的实际成就”,真是大师的气魄。
5. 克劳德. 艾尔伍德. 香农(Claude Elwood Shannon)——数学家、信息论的创始人克劳德·艾尔伍德·香农(1916—2001)——1916年4月30日出生于美国密歇根州的加洛德(Petoskey),1936年毕业于密歇根大学并获得数学和电子工程学士学位,1940年获得麻省理工学院(MIT)数学博士学位和电子工程硕士学位。
1941年他加入贝尔实验室数学部,工作到1972年。
1956年他成为麻省理工学院(MIT)客座教授,并于1958年成为终生教授,1978年成为名誉教授。
香农博士于2001年2月26日去世,享年84岁。
香农在普林斯顿高级研究所(The Institute for Advanced Study at Princeton)期间,开始思考信息论与有效通信系统的问题。
经过8年的努力,从1948年6月到10月,香农在《贝尔系统技术杂志》(Bell System Technical Journal)上连载发表了影像深远的论文《通讯的数学原理》。
1949年,香农又在该杂志上发表了另一著名论文《噪声下的通信》。
在这两篇论文中,香农解决了过去许多悬而未决的问题:阐明了通信的基本问题,给出了通信系统的模型,提出了信息量的数学表达式,并解决了信道容量、信源统计特性、信源编码、信道编码等一系列基本技术问题。
两篇论文成为了信息论的基础性理论著作。
那时,他才不过刚刚三十出头。
香农的成就轰动了世界,激起了人们对信息论的巨大热情,它向各门学科冲击,研究规模象浪雪球一样越来越大。
不仅在电子学的其他领域,如计算机、自动控制等方面大显身手,而且遍及物理学、化学、生物学、心理学、医学、经济学、人类学、语音学、统计学、管理学……等学科。
它已远远地突破了香衣本人所研究和意料的范畴,即从香农的所谓“狭义盾息论”发展到了“广义信息论”。
香农一鸣惊人,成了这门新兴学科的寞基人。
20世纪80年代以来,当人们在议论未来的时候,人们的注意力又异口同声的集中到信息领域。
按照国际一种流行的说法,未来将是一个高度信息化的社会。
信息工业将发展成头号工业,社会上大多数的人将是在从事后息的生产、加工和流通。
这时,人们才能更正确地估价香农工作的全部含义。
信息论这个曾经只在专家们中间流传的学说,将来到更广大的人群之中。
香农这个名字也飞出了专家的书斋和实验室,为更多的人所熟悉和了解。
香农被尊称为是“信息论之父”。
人们通常将香农于1948年10月发表于《贝尔系统技术学报》上的论文《通信的数学原理》作为现代信息论研究的开端。
这一文章部分基于哈里·奈奎斯特和拉尔夫·哈特利先前的成果。
在该文中,香农给出了熵的定义:这一定义可以用来推算传递经二进制编码后的原信息所需的信道带宽。
熵的概念量度的是消息中所含的信息量,而去除了消息中固有结构所决定的部分,比如,语言结构的冗余性以及语言中字母、词的使用频度等统计特性。
信息论中熵的概念与物理学中的熵有着紧密的联系。
玻耳兹曼与吉布斯在统计物理学中对熵做了很多的工作。
信息论中的熵也正是受之启发。
互信息(Mutual Information)是另一有用的信息度量,它是指两个事件集合之间的相关性。
两个事件X 和Y的互信息定义为:其中H(X,Y) 是共有熵(Joint Entropy),其定义为:互信息与多项式的对数可能性比率校验以及皮尔森的χ2校验有着密切的联系。
Claude Elwood.Shannon (1916-2001)Claude Elwood Shannon was born in Petoskey, Michigan on April 30, 1916. He spent a productive 15 years at Bell Labs, working with such famous men as John Pierce, known for satellite communication; Harry Nyquist, with numerous contributions to signal theory; Hendrik Bode, who worked on feedback; and George Stibitz, who in 1938 built an early relay computer. Click here to learn more about his life and career.Look at a compact disc under a microscope and you will see music represented as a sequence of pits, or in mathematical terms, as a sequence of 0's and 1's, commonly referred to as bits. The foundation of our Information Age is this transformation of speech, audio, images and video into digital content, and the man who started the digital revolution was Claude Shannon, who died February 24, at the age of 84, after a long struggle with Alzheimer's disease.Shannon arrived at the revolutionary idea of digital representation by sampling the information source at an appropriate rate, and converting the samples to a bit stream. He characterized the source by a single number, the entropy, adapting a term from statistical mechanics, to quantify the information content of the source. For English language text, Shannon viewed entropy as a statistical parameter that measured how much information is produced on the average by each letter. He also created coding theory, by introducing redundancy into the digital representation to protect against corruption. If today you take a compact disc in one hand, take a pair of scissors in the other hand, and score the disc along a radius from the center to the edge, then you will find that the disc still plays as if new.Before Shannon, it was commonly believed that the only way of achieving arbitrarily small probability of error in a communication channel was to reduce the transmission rate to zero. All this changed in 1948 with the publication of A Mathematical Theory of Communication, where Shannon characterized a channel by a single parameter; the channel capacity, and showed that it was possible to transmit information at any rate below capacity with an arbitrarily small probability of error. His method of proof was to show the existence of a single good code by averaging over all possible codes. His paper established fundamental limits on the efficiency of communication over noisy channels, and presented the challenge of finding families of codes that achieve capacity. The method ofrandom coding does not produce an explicit example of a good code, and in fact it has taken fifty years for coding theorists to discover codes that come close to these fundamental limits on telephone line channels.The importance of Shannon's work was recognized immediately. According to a 1953 issue of Fortune Magazine: "It may be no exaggeration to say that man's progress in peace, and security in war, depend more on fruitful applications of information theory than on physical demonstrations, either in bombs or in power plants, that Einstein's famous equation works". In fact his work has become more important over time with the advent of deep space communication, wireless phones, high speed data networks, the Internet, and products like compact disc players, hard drives, and high speed modems that make essential use of coding and data compression to improve speed and reliability.Shannon grew up in Gaylord Michigan, and began his education at the University of Michigan, where he majored in both Mathematics and Electrical Engineering. As a graduate student at MIT, his familiarity with both the mathematics of Boolean Algebra and the practice of circuit design produced what H.H. Goldstine called: "one of the most important master's theses ever written ... a landmark in that it changed circuit design from an art to a science". This thesis, A Symbolic Analysis of Relay and Switching Circuits, written in 1936, provided mathematical techniques for building a network of switches and relays to realize a specific logical function, such as a combination lock. It won the Alfred Noble Prize of the combined engineering societies of the USA and is fundamental in the design of digital computers and integrated circuits.Shannon's interest in circuit design was not purely theoretical, for he also liked to build, and his sense of play is evident in many of his creations. In the 1950's, when computers were given names like ENIAC (Electronic Numerical Integrator and Calculator) Shannon built a computer called THROBAC I ( THrifty ROman-numeral BAckward-looking Computer), which was able to add, subtract, multiply and even divide numbers up to 85 working only with Roman numerals. His study in Winchester Mass. was filled with such devices, including a maze-solving mechanical mouse and a miraculous juggling machine. Traversing the ceiling was a rotating chain, like those at dry cleaners, from which were suspended the gowns from a score of honorary doctorates. They made a splendid sight flying around the room.Shannon's 1941 doctoral dissertation, on the mathematical theory of genetics, is not as well known as his master's thesis, and in fact was not published until 1993, by which time most of the results had been obtained independently by others. After graduating from MIT, Shannon spent a year at the Institute for Advanced Study, and this is the period where he began to develop his theoretical framework that lead to his 1948 paper on communication in the presence of noise. He joined Bell Labs in 1941, and remained there for 15 years, after which he returned to MIT. During World War II his work on encryption led to the system used by Roosevelt and Churchill for transoceanic conferences, and inspired his pioneering work on the mathematical theory of cryptography.It was at Bell Labs that Shannon produced the series of papers that transformed the world, and that transformation continues today. In 1948, Shannon was connecting information theory and physics by developing his new perspective on entropy and its relation to the laws of thermodynamics. That connection is evolving today, as others explore the implications of quantum computing, by enlarging information theory to treat the transmission and processing of quantum states.Shannon must rank near the top of the list of the major figures of Twentieth Century science, though his name is relatively unknown to the general public. His influence on everyday life, which is already tremendous, can only increase with the passage of time.。