当前位置:文档之家› google特工

google特工

太强了...利用google突破各种封锁来下载你要的东西...抄下来了~~ 2008-02-04 17:03

第一篇

在搜索框上输入: “index of/ ” inurl:lib

再按搜索你将进入许多图书馆,并且一定能下载自己喜欢的书籍。

在搜索框上输入: “index of /” cnki

再按搜索你就可以找到许多图书馆的CNKI、VIP、超星等入口!

在搜索框上输入: “index of /” ppt

再按搜索你就可以突破网站入口下载powerpint作品!

在搜索框上输入: “index of /” mp3

再按搜索你就可以突破网站入口下载mp3、rm等影视作品!

在搜索框上输入: “index of /” swf

再按搜索你就可以突破网站入口下载flash作品!

在搜索框上输入: “index of /” 要下载的软件名

再按搜索你就可以突破网站入口下载软件!

注意引号应是英文的!

再透露一下,如果你输入:

“index of /” AVI

另补上第二篇

用GOOgle看世界!!!只要你在GOOGLE里输入特殊的关键字,就可以搜到数千个摄象头的IP地址!通过他你就可以看到其所摄的实时影象!!

在google里输入

inurl:"viewerframe?mode="

随便打开一个,然后按提示装一个插件,就可以看到了!!!

再补上第三篇

三则黑客的Google搜索技巧简介

大家都知道,Google毫无疑问是当今世界上最强大的搜索引擎。然而,在黑客手中,它也是一个秘密武器,它能搜索到一些你意想不到的信息。赛迪编者把他们进行了简单的总结不是希望您利用他去攻击别人的网站,而是利用这些技巧去在浩如烟海的网络信息中,来个大海捞针,寻找到对您有用的信息。

如果您是一名普通网民,您可以使用黑客的技巧扩大自己的视野,提高自己的检索效率;如果您是一名网管,请您赶快看看您的网站是否做好了对下面黑客探测手段的防范措施,如果没有就赶快来个亡羊补牢,毕竟隐患胜于明火,防范胜于救灾;如果您是一名黑客,相信您早以在别的黑客站点上见过类似的方法,这篇文章对您没什么用处,这里的技巧对您是小儿科,菜鸟级!您可以节省宝贵的时间做更有意义的事情,这篇文章您不用看了,到别处去吧!

基于上面的考虑我编发了这篇文章。

搜索URL

比如我们提交这种形式:passwd.txt site:https://www.doczj.com/doc/488750936.html,

看到了什么?是不是觉得太不可思议了!有很多基于CGI/PHP/ASP 类型的留言板存在这种问题。有时我们得到密码甚至还是明码的!管理员或许太不负责了,或许安全防范的意识太差了,如果你是网络管理员,赶快检查一下不要让恶意攻击者捡了便宜。不要太相信DES加密,即使我们的密码经过DES 加密的密码,黑客们还是可以通过许多破解软件来搞定。

这次我们能得到包含密码的文件。“site:https://www.doczj.com/doc/488750936.html,”意思是只搜索 https://www.doczj.com/doc/488750936.html, 的URL。https://www.doczj.com/doc/488750936.html,是一个网络服务器提供商。

同样,我们可以搜索一些顶级域名,比如:.net .org .jp .in .gr

config.txt site:.jp

admin.txt site:.tw

搜索首页的目录

首页是非常有用的,它会提供给你许多有用的信息。

我们提交如下的形式:

"Index of /admin"

"Index of /secret"

"Index of /cgi-bin" site:.edu

你可以自己定义搜索的首页字符。这样就可以获得许多信息。

搜索特定的文件类型

比如你想指定一种文件的类型,可以提交如下形式:

filetype:.doc site:.mil classified

这个就是搜索军方的资料,你可以自定义搜索。

再提供一个第四篇

Google 的特殊功能

1 、查询电话号码

Google 的搜索栏中最新加入了电话号码和美国街区地址的查询信息。

个人如想查找这些列表,只要填写姓名,城市和省份。

如果该信息为众人所知,你就会在搜索结果页面的最上方看到搜索的电话和街区地址

你还可以通过以下任何一种方法找到该列表:

名字(或首位大写字母),姓,电话地区号

名字(或首位大写字母),姓,邮递区号

名字(或首位大写字母),姓,城市(可写州)

名字(或首位大写字母),姓,州

电话号码,包括区号

名字,城市,州

名字,邮递区号

2 、查找 PDF 文件

现在 GOOGLE 的搜索结果中包括了 PDF 文件。尽管 PDF 文件不如 HTML 文件那么多,但他们经常具备一些其他文件不具备的高质量信息

为了显示一个搜索结果是 PDF 文件而不是网页,PDF 文件的标题开头显示蓝色文本。

这就是让你知道 ACRTOBAT READER 程序会启动来阅读文件

如果你的计算机没装有该程序,计算机会指导你去能免费下载该程序的网页。 使用 PDF 文件时,相关的网页快照会由“ TEXT VERSION ”代替,它是 PDF 文档的复制文件,该文件除去了所有格式化命令。

如果你在没有 PDF 链接的情况下想看一系列搜索结果,只要在搜索栏中打上 -inurldf 加上你的搜索条件。

3 、股票报价

用 Google 查找股票和共有基金信息,只要输入一个或多个 NYSE , NASDAQ , AMEX 或

共有基金的股票行情自动收录机的代码,也可以输入在股市开户的公司名字。 如果 Google 识别出你查询的是股票或者共有基金,它回复的链接会直接连到高质量的金融信息提供者提供的股票和共有基金信息。

在你搜索结果的开头显示的是你查询的股市行情自动收录器的代码。如果你要查找一家公司的名字(比如, INTEL ),请查看“股票报价”在 Google 搜索结果

的金融栏里会有那个公司的主页的链接(比如, https://www.doczj.com/doc/488750936.html, )。 Google 是以质量为基础来选择和决定金融信息提供者的,包括的因素有下载速度,用户界面及其功能。

4 、找找谁和你链接

有些单词如果带有冒号就会有特殊的意思。比如 link :操作员。查询

link:siteURL ,就会显示所有指向那个 URL 的网页。举例来说,链接 https://www.doczj.com/doc/488750936.html, 会向你显示所有指向 GOOGLE 主页的网页。但这种方法不能与关键字查询联合使用。

5 、查找站点

单词 site 后面如果接上冒号就能够将你的搜索限定到某个网站。具体做法是:在 c 搜索栏中使用 site:https://www.doczj.com/doc/488750936.html, 这个语法结构。比如,在斯坦福找申请信息,输入:

admission site:https://www.doczj.com/doc/488750936.html,

file:///C|/Documents and Settings/chuanyu/桌面/用GOOGLE让你瞬间变身专业特工_无孔不入.txt(第 1/11 页)[2010-5-11 13:29:40]

file:///C|/Documents and Settings/chuanyu/桌面/用GOOGLE让你瞬间变身专业特工_无孔不入.txt

6 、查找字典释意

查找字典释意的方法是在搜索栏中输入你要查询的内容。在我们根据要求找到所

有的字典释意都会标有下划线,位于搜索结果的上面,点击链接你会找到字典提供者根据要求给出的相关定义。 7 、用 GOOLGE 查找地图

想用 Google 查找街区地图,在 Google 搜索栏中输入美国街区地址,包括邮递区号或城市 / 州(比如 165 大学大街 PALO ALTO CA )。通常情况下,街区地址和城市的名字就足够了。

当 Google 识别你的要求是查找地图,它会反馈给你有高质量地图提供者提供的链接,使你直接找到相关地图。我们是以质量为基础选择这些地图提供者。值得注意的是 Google 和使用的地图信息提供者没有任何关联。

六一儿童节献礼:希望大学里多学点东西的同学请瞧过来

六一儿童节,老顽童傻傻地将最新汇总整理的网站献给校内上的朋友,祝大家节日快乐!

团结就是力量,半年不到,在大伙的帮助下,以下主题的网站已经征集到:

一、二外学习网站汇总

1、韩语: 韩国新网 https://www.doczj.com/doc/488750936.html,

日语:青空文库http://www.aozora.gr.jp/

练听力的https://www.doczj.com/doc/488750936.html,-online.go.jp/

日语学习港https://www.doczj.com/doc/488750936.html,/index.asp

可可日语网https://www.doczj.com/doc/488750936.html,/

西班牙语: https://www.doczj.com/doc/488750936.html,(英文) 英语好的人可以看

法语: https://www.doczj.com/doc/488750936.html,/DEFAULTc.HTM

二、天文类网站:牧夫天文论坛 https://www.doczj.com/doc/488750936.html,

三、、数学建模:

1、数学建模、电子设计竞赛 https://www.doczj.com/doc/488750936.html,/DEFAULTc.HTM 数学建模官方网站https://www.doczj.com/doc/488750936.html,/home/

四、园林景观类网站: https://www.doczj.com/doc/488750936.html,/

五、各种考证网站汇总: https://www.doczj.com/doc/488750936.html,/

六、自考的网站 https://www.doczj.com/doc/488750936.html,/

七、旅游省钱的好网站穷游网 https://www.doczj.com/doc/488750936.html,/

八、园林景观类网站: https://www.doczj.com/doc/488750936.html,/

强烈呼唤大伙一起努力,找到以下主题的内容:

1、关于宝石的

2、学编程的, 关于网络的, 关于计算机的, 关于企业文化的

3、教师资格证考证的网站

4、物流方面考证的网站

5、中高口译和 BEC 的网站

6、关于考古的

7、会计从业资格学习网站

各种考证网站汇总: https://www.doczj.com/doc/488750936.html,/

中国 IT 实验室: https://www.doczj.com/doc/488750936.html,/ ENGLISH PART

英语四级考试网 https://www.doczj.com/doc/488750936.html,/

英语六级考试网 https://www.doczj.com/doc/488750936.html,/

四六级考试网 https://www.doczj.com/doc/488750936.html,/default.asp 中国雅思网 https://www.doczj.com/doc/488750936.html,/

无忧雅思网 https://www.doczj.com/doc/488750936.html,/

3G 雅思网 https://www.doczj.com/doc/488750936.html,/

中国考试网 https://www.doczj.com/doc/488750936.html,/

E 学网 https://www.doczj.com/doc/488750936.html,/

旺旺英语 https://www.doczj.com/doc/488750936.html,/

普特英语听力 https://www.doczj.com/doc/488750936.html,/

中国英语学习网 https://www.doczj.com/doc/488750936.html,/

英语翻译吧 https://www.doczj.com/doc/488750936.html,/

英文写作网 https://www.doczj.com/doc/488750936.html,/

新东方网络课堂 https://www.doczj.com/doc/488750936.html,/

英语周报 https://www.doczj.com/doc/488750936.html,/

英语 365 https://www.doczj.com/doc/488750936.html,/

英文早报 https://www.doczj.com/doc/488750936.html,/

英语时空 https://www.doczj.com/doc/488750936.html,/

中国英语学习网 https://www.doczj.com/doc/488750936.html,/

空中英语教室 https://www.doczj.com/doc/488750936.html,/

AskMySite https://www.doczj.com/doc/488750936.html,/

UrbanDictionary : https://www.doczj.com/doc/488750936.html,/

英语点津 https://www.doczj.com/doc/488750936.html,/language_tips/

file:///C|/Documents and Settings/chuanyu/桌面/用GOOGLE让你瞬间变身专业特工_无孔不入.txt(第 2/11 页)[2010-5-11 13:29:40]

file:///C|/Documents and Settings/chuanyu/桌面/用GOOGLE让你瞬间变身专业特工_无孔不入.txt

外语杂志 https://www.doczj.com/doc/488750936.html,/default.asp

每日英语 https://www.doczj.com/doc/488750936.html,/english

EnglishBaby : https://www.doczj.com/doc/488750936.html,/

英语聊天室 https://www.doczj.com/doc/488750936.html,/

米 老师 https://www.doczj.com/doc/488750936.html,/Default.aspx

专四专八

牛津英语网 https://www.doczj.com/doc/488750936.html,/study/exam/major/

考试大 https://www.doczj.com/doc/488750936.html,/TEM/

中国英语学习网 https://www.doczj.com/doc/488750936.html,/tem/

沪江网 https://www.doczj.com/doc/488750936.html,/down/list/113/

新挑战国际英语 https://www.doczj.com/doc/488750936.html,/List2.asp?BClassID=4&SClassID=18 中国考题网 https://www.doczj.com/doc/488750936.html,/index_54.shtml

星沙英语 https://www.doczj.com/doc/488750936.html,/english/List_700.html

大耳朵英语 https://www.doczj.com/doc/488750936.html,/newslist-122-1.html

真题网 https://www.doczj.com/doc/488750936.html,/sort.php?sortid=25

就学网 https://www.doczj.com/doc/488750936.html,/joxue/en/id11/

考研信息

中国研究生招生信息网 https://www.doczj.com/doc/488750936.html,/

考研网 https://www.doczj.com/doc/488750936.html,/

中国考研网 https://www.doczj.com/doc/488750936.html,/

考研教育网 https://www.doczj.com/doc/488750936.html,/

21CN 考研 https://www.doczj.com/doc/488750936.html,/kaoshi/kaoyan/

考研加油站 https://www.doczj.com/doc/488750936.html,/

考研信息港 https://www.doczj.com/doc/488750936.html,/

考研论坛 https://www.doczj.com/doc/488750936.html,/

21 世纪考研网 https://www.doczj.com/doc/488750936.html,/

清华考研远程辅导网 https://www.doczj.com/doc/488750936.html,/

考研共济网 https://www.doczj.com/doc/488750936.html,/

网大考研 https://www.doczj.com/doc/488750936.html,/exam/ch2.htm

考研宝典 https://www.doczj.com/doc/488750936.html,/

考研同路人 https://www.doczj.com/doc/488750936.html,/

北京考研网 https://www.doczj.com/doc/488750936.html,/

研路资讯 https://www.doczj.com/doc/488750936.html,/

导航考研 https://www.doczj.com/doc/488750936.html,/

圣才考研网 https://www.doczj.com/doc/488750936.html,/

3COM 免费考研网 https://www.doczj.com/doc/488750936.html,/

OK 考研网 https://www.doczj.com/doc/488750936.html,/

留学信息

教育涉外监管信息网 https://www.doczj.com/doc/488750936.html,/

国家留学基金委员会 https://www.doczj.com/doc/488750936.html,/gb/

经教育部资格认定中介 https://www.doczj.com/doc/488750936.html,/mingdan/001.html 教育部公布的外国学校 https://www.doczj.com/doc/488750936.html,/mingdan/004.html 世纪出国资讯易网 https://www.doczj.com/doc/488750936.html,/

北京留学网 https://www.doczj.com/doc/488750936.html,/

中国留学人才信息网 https://www.doczj.com/doc/488750936.html,/

艾迪国际 https://www.doczj.com/doc/488750936.html,/

东方移民留学中心 https://www.doczj.com/doc/488750936.html,/

国际教育留学资讯网 https://www.doczj.com/doc/488750936.html,/

北京环球行留学服务 https://www.doczj.com/doc/488750936.html,/

自在留学网 https://www.doczj.com/doc/488750936.html,/

留学第一站 https://www.doczj.com/doc/488750936.html,/

北京嘉华世达国际教育中心 https://www.doczj.com/doc/488750936.html,/

中国教育服务中心 https://www.doczj.com/doc/488750936.html,/

中教国际教育交流中心 https://www.doczj.com/doc/488750936.html,/

高士登留学 https://www.doczj.com/doc/488750936.html,/

DIY 留学法国 https://www.doczj.com/doc/488750936.html,/

中国对外友好合作服务 https://www.doczj.com/doc/488750936.html,/

中国出国人员服务总公司 https://www.doczj.com/doc/488750936.html,/

file:///C|/Documents and Settings/chuanyu/桌面/用GOOGLE让你瞬间变身专业特工_无孔不入.txt(第 3/11 页)[2010-5-11 13:29:40]

file:///C|/Documents and Settings/chuanyu/桌面/用GOOGLE让你瞬间变身专业特工_无孔不入.txt

公务员考试

中国人事考试网 https://www.doczj.com/doc/488750936.html,/

中国海关考录网 https://www.doczj.com/doc/488750936.html,/

北京市人事考试网 https://www.doczj.com/doc/488750936.html,/

中华人民共和国人事部 https://www.doczj.com/doc/488750936.html,/

公务员考试指南针 https://www.doczj.com/doc/488750936.html,/compass.htm

国家公务员考试 _ 新浪 https://www.doczj.com/doc/488750936.html,/focus/official.html 公务员考试 _ 新华网 https://www.doczj.com/doc/488750936.html,/zhengfu/gwy/ 公务员考试 _ 中招在线 https://www.doczj.com/doc/488750936.html,/gwyks/

腾讯公务员考试 https://www.doczj.com/doc/488750936.html,/official/

公务员考试 _ 南开大学 https://www.doczj.com/doc/488750936.html,/official/

公务员考试 _ 济宁信息港 https://www.doczj.com/doc/488750936.html,/gwyks/

福建录用公务员考试网 https://www.doczj.com/doc/488750936.html,/

广东公务员考试网 https://www.doczj.com/doc/488750936.html,/

广州人事信息网 https://www.doczj.com/doc/488750936.html,/

司法考试

中国普法网 ( 司法部 ) https://www.doczj.com/doc/488750936.html,/

法律教育网 https://www.doczj.com/doc/488750936.html,/

中国司法考试在线 https://www.doczj.com/doc/488750936.html,/

国家司法考试在线 https://www.doczj.com/doc/488750936.html,/

国家司法考试网 https://www.doczj.com/doc/488750936.html,/

律政中国司法考试网 https://www.doczj.com/doc/488750936.html,/

全国司法考试试题辅导 https://www.doczj.com/doc/488750936.html,/

司法统一考试 https://www.doczj.com/doc/488750936.html,/

国家司法考试 _ 新浪网 https://www.doczj.com/doc/488750936.html,/focus/lawyer.html 万国司法考试 https://www.doczj.com/doc/488750936.html,/

广州国家司法考试网 https://www.doczj.com/doc/488750936.html,/

司法人 https://www.doczj.com/doc/488750936.html,/

国家司法考试辅导培训 https://www.doczj.com/doc/488750936.html,/

计算机等级考试

全国计算机等级考试网 https://www.doczj.com/doc/488750936.html,/

等级考试 _ 无忧服务站 https://www.doczj.com/doc/488750936.html,/

信息产业部电子教育 https://www.doczj.com/doc/488750936.html,/

思达网校 _IT 认证社区 https://www.doczj.com/doc/488750936.html,/

软件水平考试 https://www.doczj.com/doc/488750936.html,/

世纪软考 https://www.doczj.com/doc/488750936.html,/

人才招聘

高校毕业生网 https://www.doczj.com/doc/488750936.html,/

中国高校就业联盟网 https://www.doczj.com/doc/488750936.html,/

中国大学生就业见习网 https://www.doczj.com/doc/488750936.html,/

北京市毕业生就业信息网 https://www.doczj.com/doc/488750936.html,/

北京毕业生就业指导中心 https://www.doczj.com/doc/488750936.html,/

北京毕业生就业中心 https://www.doczj.com/doc/488750936.html,/

研究生人才网 https://www.doczj.com/doc/488750936.html,/

智联招聘网 https://www.doczj.com/doc/488750936.html,/ 全国,但以北京信息最多

中华英才网 https://www.doczj.com/doc/488750936.html,

51job https://www.doczj.com/doc/488750936.html,/ 信息较多的是北京、上海、深圳、广州

中国俊才网 https://www.doczj.com/doc/488750936.html,/

易才网 https://www.doczj.com/doc/488750936.html,/

易之易工作网 https://www.doczj.com/doc/488750936.html,/

每日人才网 https://www.doczj.com/doc/488750936.html,/

58 城网 - 兼职 https://www.doczj.com/doc/488750936.html,/jianzhi.aspx

中国经理人才网 https://www.doczj.com/doc/488750936.html,/

HR 伴侣 https://www.doczj.com/doc/488750936.html,/

中国人力资源联盟 https://www.doczj.com/doc/488750936.html,/

智通人才招聘网 https://www.doczj.com/doc/488750936.html,/

应届生求职网: https://www.doczj.com/doc/488750936.html,/

file:///C|/Documents and Settings/chuanyu/桌面/用GOOGLE让你瞬间变身专业特工_无孔不入.txt(第 4/11 页)[2010-5-11 13:29:40]

file:///C|/Documents and Settings/chuanyu/桌面/用GOOGLE让你瞬间变身专业特工_无孔不入.txt

中国招聘网: https://www.doczj.com/doc/488750936.html, 500 强企业招聘大型人才网,外企招聘和校园

简历无忧

中国电子简历网 https://www.doczj.com/doc/488750936.html,/

中国简历网 https://www.doczj.com/doc/488750936.html,/

简历吧 https://www.doczj.com/doc/488750936.html,/

中国人才指南网 https://www.doczj.com/doc/488750936.html,/

简历中国 https://www.doczj.com/doc/488750936.html,/

轻松简历网 https://www.doczj.com/doc/488750936.html,/

中英文简历工作室 https://www.doczj.com/doc/488750936.html,/

中国个人简历网 https://www.doczj.com/doc/488750936.html,/

世纪简历网 https://www.doczj.com/doc/488750936.html,/

中国求职简历网 https://www.doczj.com/doc/488750936.html,/

千里马个人简历网:https://www.doczj.com/doc/488750936.html,

兼职、实习、求职网站信息大全

首先,确定你的行业,和最关注的企业,把自己的简历放到人家的官方网站上(如 IBM 的官方招聘网址为 https://www.doczj.com/doc/488750936.html,/employment/cn/index.html ),然后定期去心仪企业的网站察看最新职位,并申请!

其次,大多数的著名外企都会在以下最权威网站(如果时间有限就看这四个就够

用了)发布自己的招聘职位和申请流程,

https://www.doczj.com/doc/488750936.html,

https://www.doczj.com/doc/488750936.html,

https://www.doczj.com/doc/488750936.html,

https://www.doczj.com/doc/488750936.html, 实习和全职都有,希望大家每日 / 每周关注,一定会对自己的职业发展有帮助的!

补充一些有用的网站:

1 , https://www.doczj.com/doc/488750936.html,/ 中国实习网(刚刚起步,信息不多)

2, https://www.doczj.com/doc/488750936.html,/data/china/job/index.html?r=34892 易登兼职频道 ( 兼职实习信息较多,更新快 )

3 , https://www.doczj.com/doc/488750936.html,/ 学生新势力 ( 注册会员免费 , 信息更新还不错 )

4 , https://www.doczj.com/doc/488750936.html,/ 广州子凡兼职网 ( 需要注册为会员才能查看信息。注册会员免费 )

5 , https://www.doczj.com/doc/488750936.html,/sub.asp 北大就业信息网实习频道(可直接访问)

6 , https://www.doczj.com/doc/488750936.html,/job/index.asp 广州学生网兼职

7 , https://www.doczj.com/doc/488750936.html,/bbs/index.asp 广州高校论坛兼职

8 , https://www.doczj.com/doc/488750936.html,/ 人脉招聘网(找实习人脉还是很重要的)

9 , https://www.doczj.com/doc/488750936.html, 中国大学生就业见习网

10 , https://www.doczj.com/doc/488750936.html,/ 未名的实习版

11 , https://www.doczj.com/doc/488750936.html,/ 中国实习网(竟然重名了,呵呵,广东地区信息较多)

12 , https://www.doczj.com/doc/488750936.html,/ 搜职网(自动搜索招聘信息,实习职位偏少)

13 , https://www.doczj.com/doc/488750936.html,/ 中国兼职网

14 , https://www.doczj.com/doc/488750936.html,/index.php 大学生兼职网

15 , https://www.doczj.com/doc/488750936.html,/job/city_index.php 瑞雅网兼职频道

16 , https://www.doczj.com/doc/488750936.html,/index.asp 广州家政网

17 , https://www.doczj.com/doc/488750936.html,/index.asp 大学生实习网

另可参考以下渠道:

毕业生必须知道的就业信息渠道 !!!!

现在向大家介绍毕业生必须知道的就业信息渠道

1 校就业指导中心--校就业网 ,bbs- 走向社会

2 院系学工办 --信件,电话通知等方式

3 各班班长--通知本人

4 北京大学就业网-只可以看到目录-将目录输入到“百度”搜索

5 除北京大学、人民大学无法直接进入查看信息外,其他大多数大学就业网都可以直

接进入,如清华大学就业网--可以随意进入

请大家注意保留,以下就业网可以随便进入不需要身份验证!

同济大学: https://www.doczj.com/doc/488750936.html,/index.portal#

西北大学: https://www.doczj.com/doc/488750936.html,/nwujobcizi/

哈工大 : https://www.doczj.com/doc/488750936.html,/glxyxgb01/sub.asp?no=7

东南大学: https://www.doczj.com/doc/488750936.html,/bf/introCo ... Key2=&Post=Post

华东师范: https://www.doczj.com/doc/488750936.html,/commonpage/in from ation.aspx

北京大学: https://www.doczj.com/doc/488750936.html,/sub.asp?id=8

清华大学: https://www.doczj.com/doc/488750936.html,/sub.asp?id=8

中国农大: https://www.doczj.com/doc/488750936.html,/Zp/zpxx.aspx

北京师大: http://202.112.92.112/

file:///C|/Documents and Settings/chuanyu/桌面/用GOOGLE让你瞬间变身专业特工_无孔不入.txt(第 5/11 页)[2010-5-11 13:29:40]

file:///C|/Documents and Settings/chuanyu/桌面/用GOOGLE让你瞬间变身专业特工_无孔不入.txt

offer 收割机: https://www.doczj.com/doc/488750936.html,

北京高校毕业生信息网: https://www.doczj.com/doc/488750936.html,/Zp/zpxx.aspx

长三角人才网: https://www.doczj.com/doc/488750936.html,/

天津人才网: https://www.doczj.com/doc/488750936.html,/

江苏人才: https://www.doczj.com/doc/488750936.html,/

基于深度卷积神经网络的图像分类

SHANGHAI JIAO TONG UNIVERSITY 论文题目:基于卷积神经网络的自然图像分类技术研究 姓名: 高小宁 专业:控制科学与工程

基于卷积神经网络的自然图像分类技术研究 摘要:卷积神经网络已在图像分类领域取得了很好的效果,但其网络结构及参数的选择对图像分类的效果和效率有较大的影响。为改善卷积网络的图像分类性能,本文对卷积神经网络模型进行了详细的理论分析,并通过大量的对比实验,得出了影响卷积网络性能的因素。结合理论分析及对比实验,本文设计了一个卷积层数为8层的深度卷积网络,并结合Batch Normalization、dropout等方法,在CIFAR-10数据集上取得了88.1%的分类精度,有效地提高了卷积神经网络的分类效果。 关键词:卷积神经网络,图像分类,Batch Normalization,Dropout Research on Natural Image Classification Based on Convolution Neural Network Abstract: Convolution neural network has achieved very good results in image classification, but its network structure and the choice of parameters have a greater impact on image classification efficiency and efficiency. In order to improve the image classification performance of the convolution network, a convolutional neural network model is analyzed in detail, and a large number of contrastive experiments are conducted to get the factors that influence the performance of the convolution network. Combining the theory analysis and contrast experiment, a convolution layer depth convolution network with 8 layers is designed. Combined with Batch Normalization and dropout, 88.1% classification accuracy is achieved on CIFAR-10 dataset. Which improves the classification effect of convolution neural network. Key Words:Convolution neural network(CNN), image classification, Batch Normalization,Dropout

GoogLeNet深度学习模型的Caffe复现模型

Going deeper with convolutions Christian Szegedy Google Inc. Wei Liu University of North Carolina,Chapel Hill Yangqing Jia Google Inc.Pierre Sermanet Google Inc. Scott Reed University of Michigan Dragomir Anguelov Google Inc. Dumitru Erhan Google Inc. Vincent Vanhoucke Google Inc. Andrew Rabinovich Google Inc. Abstract We propose a deep convolutional neural network architecture codenamed Incep-tion,which was responsible for setting the new state of the art for classi?cation and detection in the ImageNet Large-Scale Visual Recognition Challenge 2014(ILSVRC14).The main hallmark of this architecture is the improved utilization of the computing resources inside the network.This was achieved by a carefully crafted design that allows for increasing the depth and width of the network while keeping the computational budget constant.To optimize quality,the architectural decisions were based on the Hebbian principle and the intuition of multi-scale processing.One particular incarnation used in our submission for ILSVRC14is called GoogLeNet,a 22layers deep network,the quality of which is assessed in the context of classi?cation and detection. 1Introduction In the last three years,mainly due to the advances of deep learning,more concretely convolutional networks [10],the quality of image recognition and object detection has been progressing at a dra-matic pace.One encouraging news is that most of this progress is not just the result of more powerful hardware,larger datasets and bigger models,but mainly a consequence of new ideas,algorithms and improved network architectures.No new data sources were used,for example,by the top entries in the ILSVRC 2014competition besides the classi?cation dataset of the same competition for detec-tion purposes.Our GoogLeNet submission to ILSVRC 2014actually uses 12×fewer parameters than the winning architecture of Krizhevsky et al [9]from two years ago,while being signi?cantly more accurate.The biggest gains in object-detection have not come from the utilization of deep networks alone or bigger models,but from the synergy of deep architectures and classical computer vision,like the R-CNN algorithm by Girshick et al [6]. Another notable factor is that with the ongoing traction of mobile and embedded computing,the ef?ciency of our algorithms –especially their power and memory use –gains importance.It is noteworthy that the considerations leading to the design of the deep architecture presented in this paper included this factor rather than having a sheer ?xation on accuracy numbers.For most of the experiments,the models were designed to keep a computational budget of 1.5billion multiply-adds at inference time,so that the they do not end up to be a purely academic curiosity,but could be put to real world use,even on large datasets,at a reasonable cost. a r X i v :1409.4842v 1 [c s .C V ] 17 S e p 2014

基于深度学习的图像识别进展百度的若干实践

语音搜索、图像识别等领域,涵盖几十项产品。今天,用户在百度平台上的几乎每个服务请求,都被深度学习系统所处理。 人工智能的特征之一是学习的能力,即系统的性能是否会随 着经验数据的积累而不断提升。所以,大数据时代的到来给人工智能的发展提供前所未有的机遇。在这个时代背景下,深度学习在包括图像识别等方面所取得的突破性进展并非偶然。 在百度的实践中,我们认识到深度学习主要在以下三个方面具有巨大优势: 1.从统计和计算的角度 看,深度学习特别适合处理大 数据。在很多问题上,深度学习 是目前我们能找到的最好方法。它集中体现了当前机器学习算法的三个大趋势:用较为复杂的模型降低模型偏差(model bias),用大数据提升统计估计的准确度,用可扩展(scalable)的梯度下降 算法求解大规模优化问题。 2.深度学习不是一个黑箱 系统。它像概率模型一样,提供 一套丰富的、基于联接主义的建 模语言(建模框架)。利用这套语言系统,我们可以表达数据内在的丰富关系和结构,比如用卷积处理图像中的二维空间结构,用递归神经网络(Recurrent Neu-ral Network, RNN)处理自然语言等数据中的时序结构。 3.深度学习几乎是唯一的 端到端机器学习系统。它直接 作用于原始数据,自动逐层进行特征学习,整个过程直接优化某个目标函数。而传统机器学习往往被分解为几个不连贯的数据预处理步骤,比如人工抽取特征,这些步骤并非一致地优化某个整 体的目标函数。 让计算机识别和理解图像,是人工智能最重要的目标之一。尤其是在移动互联网时代,智能手机上的摄像头将人们日常看到 的世界捕捉下来,图像和视频数据暴增,造就了图像大数据时代。 概述:深度学习和图像识别 近年来在人工智能领域最受关注的,非深度学习莫属。自2006年吉奥夫雷·辛顿(Geoffery Hinton)等在《科学》(Science )杂 志发表那篇著名的论文[1]开始,深度学习的热潮从学术界席卷到了工业界。2012年6月,《纽约时报》披露“谷歌大脑(Google Brain)”项目,由著名的斯坦福大学机器学习教授吴恩达(Andrew Ng)和大规模计算机系统世界顶级专家杰夫·迪恩(Jeff Dean)共同主导,用1.6万个CPU 核的并行计算平台训练深度神经网络(Deep Neural Networks, DNN)的机器学习模型,在语音和图像识别等领域获得巨大成功。 国内方面,2013年1月,百度成立深度学习研究院,公司CEO 李彦宏担任院长。短短两年时间,深度学习技术被应用到百 度的凤巢广告系统、网页搜索、基于深度学习的图像识别进展:百度的若干实践 关键词:深度学习 图像分类 物体检测 都大龙 余轶南 罗 恒 等 百度公司

Towards Good Practices for very deep Two-stream convnets

a r X i v :1507.02159v 1 [c s .C V ] 8 J u l 2015 Towards Good Practices for Very Deep Two-Stream ConvNets Limin Wang 1 Yuanjun Xiong 1Zhe Wang 2Yu Qiao 2 1 Department of Information Engineering,The Chinese University of Hong Kong,Hong Kong 2 Shenzhen key lab of Comp.Vis.&Pat.Rec.,Shenzhen Institutes of Advanced Technology,CAS,China {07wanglimin,bitxiong,buptwangzhe2012}@https://www.doczj.com/doc/488750936.html,,yu.qiao@https://www.doczj.com/doc/488750936.html, Abstract Deep convolutional networks have achieved great suc-cess for object recognition in still images.However,for ac-tion recognition in videos,the improvement of deep convo-lutional networks is not so evident.We argue that there are two reasons that could probably explain this result.First the current network architectures (e.g.Two-stream ConvNets [12])are relatively shallow compared with those very deep models in image domain (e.g.VGGNet [13],GoogLeNet [15]),and therefore their modeling capacity is constrained by their depth.Second,probably more importantly,the training dataset of action recognition is extremely small compared with the ImageNet dataset,and thus it will be easy to over-?t on the training dataset. To address these issues,this report presents very deep two-stream ConvNets for action recognition,by adapting recent very deep architectures into video domain.How-ever,this extension is not easy as the size of action recog-nition is quite small.We design several good practices for the training of very deep two-stream ConvNets,namely (i)pre-training for both spatial and temporal nets,(ii)smaller learning rates,(iii)more data augmentation techniques,(iv)high drop out ratio.Meanwhile,we extend the Caffe tool-box into Multi-GPU implementation with high computa-tional ef?ciency and low memory consumption.We verify the performance of very deep two-stream ConvNets on the dataset of UCF101and it achieves the recognition accuracy of 91.4%. 1.Introduction Human action recognition has become an important problem in computer vision and received a lot of research interests in this community [12,16,19].The problem of action recognition is challenging due to the large intra-class variations,low video resolution,high dimension of video data,and so on. The past several years have witnessed great progress on action recognition from short clips [8,9,12,16,17,18,19]. These research works can be roughly categorized into two types.The ?rst type of algorithm focuses on the hand-crafted local features and Bag of Visual Words (BoVWs)representation.The most successful example is to extract improved trajectory features [16]and employ Fisher vector representation [11].The second type of algorithm utilizes deep convolutional networks (ConvNets)to learn video rep-resentation from raw data (e.g.RGB images or optical ?ow ?elds)and train recognition system in an end-to-end man-ner.The most competitive deep model is the two-stream ConvNets [12]. However,unlike image classi?cation [7],deep ConvNets did not yield signi?cant improvement over these traditional methods.We argue that there are two possible reasons to explain this phenomenon.First,the concept of action is more complex than object and it is relevant to other high-level vision concepts,such as interacting object,scene con-text,human pose.Intuitively,the more complicated prob-lem will need the model of higher complexity.However,the current two-stream ConvNets are relatively shallow (5convolutional layers and 3fully-connected layers)com-pared with those successful models in image classi?cation [13,15].Second,the dataset of action recognition is ex-tremely small compared the ImageNet dataset [1].For ex-ample,the UCF101dataset [14]only contains 13,320clips.However,these deep ConvNets always require a huge num-ber of training samples to tune the network weights.In order to address these issues,this report presents very deep two-stream ConvNets for action recognition.Very deep two-stream ConvNets contain high modeling capacity and are capable of handling the large complexity of action classes.However,due to the second problem above,train-ing very deep models in such a small dataset is much chal-lenging due to the over-?tting problem.We propose several good practices to make the training of very deep two-stream ConvNets stable and reduce the effect of over-?tting.By carefully training our proposed very deep ConvNets on the action dataset,we are able to achieve the state-of-the-art performance on the dataset of UCF101.Meanwhile,we ex-tend the Caffe toolbox [4]into multi-GPU implementation 1

Inception V2-V3-V4的发展历程以及它们的网络结构和亮点

Inception V2/V3/V4的发展历程以及它们的网络结构和亮点 上一篇文章我们引出了GoogLeNet InceptionV1的网络结构,这篇文章中我们会详细讲到Inception V2/V3/V4的发展历程以及它们的网络结构和亮点。 GoogLeNet Inception V2 GoogLeNet Inception V2在《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》出现,最大亮点是提出了Batch Normalization方法,它起到以下作用: 使用较大的学习率而不用特别关心诸如梯度爆炸或消失等优化问题; 降低了模型效果对初始权重的依赖; 可以加速收敛,一定程度上可以不使用Dropout这种降低收敛速度的方法,但却起到了正则化作用提高了模型泛化性; 即使不使用ReLU也能缓解激活函数饱和问题; 能够学习到从当前层到下一层的分布缩放( scaling (方差),shift (期望))系数。 在机器学习中,我们通常会做一种假设:训练样本独立同分布(iid)且训练样本与测试样本分布一致,如果真实数据符合这个假设则模型效果可能会不错,反之亦然,这个在学术上叫Covariate Shift,所以从样本(外部)的角度说,对于神经网络也是一样的道理。从结构(内部)的角度说,由于神经网络由多层组成,样本在层与层之间边提特征边往前传播,如果每层的输入分布不一致,那么势必造成要么模型效果不好,要么学习速度较慢,学术上这个叫InternalCovariate Shift。 假设:y为样本标注,X={x1,x2,x3,......}为样本x 通过神经网络若干层后每层的输入; 理论上:p(x,y)的联合概率分布应该与集合X中任意一层输入的联合概率分布一致,如:p(x,y)=p(x1,y); 但是:p(x,y)=p(y|x)?p(x),其中条件概率p(y|x)是一致的,即p(y|x)=p(y|x1)=p(y|x1)=......,但由于神经网络每一层对输入分布的改变,导致边缘概率是不一致的,即p(x)≠p(x1)≠

Google软件工程师--从战争中得到的启示

Google软件工程师--从战争中得到的启示

Google软件工程师:从战争中得到的启示 摘要:有一群人,他们既在公司工作过,同时也在部队服役过。这种人稀少,而(美国)退伍军人节是一个倾听他们讲述的好机会。Dan Cross是Google的一名软件工程师,但他也是一名美国海军陆战队中尉(First Lieutenant )。一年前他暂停了Google的工作,去阿富汗执行任务,如今他从战场归来,并带回了日常工作无法学到的经验。虽然他从不认为自己适合当兵,直到后来有一件事情触动了他。为此他重新规划了自己的职业生涯,最终成为了一名合格的军人。 英文原文:Google engineer: What I learned in the war Dan Cross,34岁,是Google退伍军人网络(VetNet,Google Veterans Network)的一名活跃分子。VetNet社区有将近400名退伍军人以及其他Google员工参与。以下是Cross讲述自己从战场上获取的收获:

当时我还是一名哥伦比亚大学的学生,有一些工作经验,突然之间整个世界发生了改变。9月11日的早晨,我碰巧在纽约市区看到了双塔轰然倒地。 虽然那天我没有失去任何亲人,但和许多人一样我被这场悲剧深深地震撼——尤其因为我的哥哥David,他当时是一名海军陆战队直升机驾驶员。那时我还像是个14岁留着长发玩滑板的男孩。而我唯一的兄弟David已经加入了海军陆战队。接下来的日子里,我哥向我讲述了很多军队故事,虽然我很喜欢他的这些故事,

但成为一名海军陆战队员并不是我的理想。 眼镜蛇攻击直升机 2003年1月22日,David在一次美国/墨西哥边境德克萨斯州以南执行扫毒任务中,他驾驶的眼镜蛇攻击直升机在一次空中相撞事 故中坠毁。2架直升机中的4名海军陆战队士兵全部牺牲。 我从没有打算成为一名军人,直到我哥哥去世。在海军陆战队为他举行的葬礼上,我被深深地打动了。David 中队的所有成员从各地赶来,他们之间的感情似乎无法磨灭。我想知道更多究

基于改进Mobilenet算法的深度人脸识别算法

研究与开发 Research & Development 39引言 近年来,由于深度学习在图像识别领域内的卓越 表现,人脸识别任务也逐渐开始采用深度学习方法来 突破性能瓶颈。2014年,Facebook 团队利用深度学习 在LFW 人脸数据库上得到97.35%的平均分类精度[1]; 同年,香港中文大学的团队[2]取得了97.45% 的成绩。 由此,人脸识别任务的主要技术方法从传统的人工提 取特征结合分类识别算法转变为基于卷积神经网络的 深度学习方法,这种端对端的自主学习方法,可以更 方便高效地提取人脸特征[3]。其后,Google 于2015年 提出了FaceNet 模型,在 LFW 数据集上的准确率高达 99.63%[4],接着更具挑战的MegaFace 数据集应运而 生,该数据集采集了690572个ID 的1027060张公开人 脸图像[5],对人脸识别的研究起到了至关重要的作用。 为了提高算法的性能,专家学者们研究设计出了 很多表现优秀的损失函数。Triplet Loss [6]、L-Softmax Loss(Large-margin Softmax Loss)[7] 、Center Loss [8]、 SphereFace 采用的A-Softmax(Angular Softmax Loss)[9]、 AM-Softmax(Additive Margin Softmax)[10]等都对人脸识别基于改进Mobilenet算法的深度人脸识别算法的性能做出了很大的贡献。除此以外,研究人员不断增加网络的层数以获得更好的性能,从最初7层的AlexNet 增加到16层的V G G ,到22层的G o o g l e N e t ,再到152层的ResNet [11]。随着网络深度的增加,模型的性能得到了显著提升,但是与此同时模型所需要的存储空间和预测所需要的时间也增加了很多。所以对移动端的人脸识别任务而言,通过增加网络的层数提高模型性能是不切实际的。所以设计出能仅利用移动端的硬件资源就能够快速完成基于深度学习模型的人脸识别任务至关重要。为了解决这些问题,目前提出的轻量级网络有SqueezeNet [12]、MobileNet [13]、Shuf?eNet [14]等,它们在移动设备上都获得了不错的性能。本文将采用传统的人工提取特征结合分类识别的方法进行人脸检测和人脸对齐,然后训练改进的Mobilenet 算法进行人脸识别,在轻量级网络上达到了较高的识别率。1 人脸检测与特征点定位人脸检测与特征点定位是人脸识别的关键步骤,会 摘 要?针对深度人脸识别任务在移动端遇到的存储空间受限、预测所需时间长、算法性能不高等问题,提出了一种改进的Mobilenet 算法。将Mobilenet 算法的监督信号Softmax 改进为AM-Softmax ,通过多次实验,设计出AM-Softmax 比较适合Mobilenet 算法的附加余量和缩放因子值。训练集和验证集来源于数据集MS-Celeb-1M-v1c 和数据集Asian-Celeb ,并在LFW 数据集上对改进Mobilenet 算法的有效性进行了验证。通过与初始Mobilenet 算法模型的对比实验发现,采用改进Mobilenet 算法的性能较优,准确率比softmax 提升了十个百分点。充分利用数据集Asian-Celeb 中的亚洲名人ID ,增加训练样本数,将性能进一步提高了四个百分点。 关键词?深度学习;人脸识别;Mobilenet ;损失函数 刘梦雅 毛剑琳 昆明理工大学 昆明 650500

深度 向手机端神经网络进发:MobileNet压缩指南

深度向手机端神经网络进发:MobileNet压缩指南 选自Machine Think作者:Matthijs Hollemans机器之心编译 随着MobileNet 等面向移动设备的模型不断出现,机器学习正在走向实用化。不过,由于深度学习等方法需要消耗大量计算资源的因素,目前我们距离真正的移动端人工智能应用还有一段距离。在硬件之外,我们也需要对模型本身进行压缩,最近,荷兰工程师Matthijs Hollemans 向我们展示了他压缩MobileNet 的方法:通过删除卷积层的部分滤波器,他在保证准确性不变的情况下,让模型体量缩小了25%,让我们看看他是怎么做的。 随着机器学习技术向移动设备渗透的趋势,人们正在越来越注重于寻找让深度神经网络更快、更简洁的方式。 一种方法是提出更智能化的神经网络设计。例如:MobileNet 可以在获得相同结果的情况下比VGG-16 小32 倍,速度快上10 倍。 另一个方法是采用现有的神经网络,并用删除与结果无关的神经元的方法来压缩它。本文会着重介绍这种方法。 我们将着手改进MobileNet-224,让它的体量减小25%,换句话说,我们要把它的参数从400 万个减少到300 万个——同时不损失模型的准确性(好吧…只有一点点)。

如何做到更好 鉴于MobileNet 比VGG16 要小32 倍,而准确性相同,前者捕获知识的效率显然更高。 的确,VGG 模型中的神经网络连接比我们所需要的多很多。斯坦福大学韩松等人2015 年在论文《Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding》中提出的压缩网络方法展示了通过剪枝不必要的神经网络连接让VGG16 缩小49 倍,并保持准确性的方法。 现在问题来了:MobileNet 里还有不必要的连接接吗?即使这个模型已足够小,但我们能不能让它变得更小且不损失准确性呢? 当你试图压缩一个神经网络,需要权衡的问题是模型尺寸与准确性。通常,网络越小,速度就越快(当然也耗电更少),但预测出来的结果也会越差。例如,MobileNet 的性能要好过SqueezeNet,同时前者也比后者大上3.4 倍。 在理想情况下,我们总是希望找到尽可能小的神经网络——不过它们必须为我们传递准确的结果。这在机器学习中是一个开放问题,在正确的理论出现之前,让我们先试着从大模型开始剪枝吧。 在这个项目中,我使用了Keras 2.0.7 版中预训练的MobileNet,并运行在TensorFlow1.0.3 上。如果使用

深度神经网络带来的影响

深度神经网络带来的影响 人工智能近几年实现了爆炸式发展,深度学习可以说是其主要的推动力。 在计算机视觉领域,大部分的问题都已经开始使用深度神经网络进行解决,也确实取得了广泛的成功。在很多视觉任务中,如图像识别、语义分割、目标检测与跟踪、图像检索等,作为提取特征的CNN网络模型往往起到了关键的作用。我们经常见到最新的方法将基础网络换一下,性能就会得到很大的提升。因此,研究并设计一个更好的网络模型变得至关重要。 基础网络模型的结构样例最新研究进展经典的神经网络模型主要在宽度与深度方面进行不同程度的扩增。借助于大规模数据的训练,AlexNet、VGG-16、VGG-19等经典网络通过宽度或深度增加的参数可以有效地提升其模型的表达能力。但当网络变得越来越深,其训练难度也随之相应增加,反而会导致性能的下降。最近的ResNet和Highway Networks 等方法通过引入Skip跳跃结构来试图解决极深网络在优化上带来的问题。 ResNet和Highway Networks结构的简单示意图 最新的一些研究尝试从其他角度来解释Highway、ResNet和GoogLeNet等网络结构表现优异的原因。其中我在微软实习的导师王井东研究员、实习生魏祯和张婷以及曾文君研究员提出Deep Fusion (Jingdong Wang,Zhen Wei,TIng Zhang,Wenjun Zeng:Deeply-Fused Nets. CoRR abs/1605.07716 (2016))深度融合的概念,认为不同分支的网络在中间层进行融合(加和或拼接等方式)能够(1)产生很多潜在的共享参数的基础网络,(2)同时优化信息的流动,(3)从而帮助深层网络的训练过程。 Deep Fusion深度融合最简单形式的概念示意图 我们可以发现很多有代表性的网络结构基本都可以按照深度融合的概念进行理解。除去LeNet、AlexNet、VGGNet等单分支网络,近两年提出的ResNet、Highway Networks、

基于交错组卷积的高效DNN详解

基于交错组卷积的高效DNN详解 卷积神经网络在近几年获得了跨越式的发展,虽然它们在诸如图像识别任务上的效果越来越好,但是随之而来的则是模型复杂度的不断提升。越来越深、越来越复杂的卷积神经网络需要大量存储与计算资源,因此设计高效的卷积神经网络是非常重要和基础的问题,而消除卷积的冗余性是该问题主要的解决方案之一。 如何消除消除卷积的冗余性?我们邀请到了微软亚洲研究院视觉计算组资深研究员王井东博士,为大家讲解发表在ICCV 2017 和CVPR 2018 上基于交错组卷积的方法。 以下是公开课内容,AI科技大本营整理,略有删减: ▌深度学习大获成功的原因 2006年《Science》上的一篇文章——Reducing the Dimensionality of Data with Neural Networks,是近十多年来促进深度学习发展非常重要的一篇文章。当时这篇文章出来的时候,很多机器学习领域的人都在关注这个工作,但是它在计算机视觉领域里并没有取得非常好的效果,所以并没有引起计算机视觉领域的人的关注。 深度学习的方法在计算机视觉领域真正得到关注是因为2012 年的一篇文章——ImageNet Classification with Deep Convolutional Neural Networks。这个文章用深度卷积神经网络的方法赢得了计算机视觉领域里一个非常重要的ImageNet 比赛的冠军。在2012 年之前的冠军都是基于SVM(支持向量机)或者随机森林的方法。 2012年Hinton 和他的团队通过深度网络取得了非常大的成功,这个成功大到什么程度?比前一年的结果提高了十几个百分点,这是非常可观、非常了不起的提高。因为在ImageNet 比赛上的成功,计算机视觉领域开始接受深度学习的方法。 比较这两篇文章,虽然我们都称之为深度学习,但实际上相差还挺大的。特别是2012 年这篇文章叫“深度卷积神经网络”,简写成“CNN”。CNN 不是2012 年这篇文章新提出来的,在九十年代,Yann LeCun 已经把CNN 用在数字识别里,而且取得非常大的成功,

googlenet_v1(inception)论文阅读

GoogLeNet Inception V1 1. Motivation 一般来说,提升网络性能最直接的办法就是增加网络深度和宽度,这也就意味着巨量的参数。但是,巨量参数容易产生过拟合也会大大增加计算量。 文章认为解决上述两个缺点的根本方法是将全连接甚至一般的卷积都转化为稀疏连接。一方面现实生物神经系统的连接也是稀疏的,另一方面有文献1表明:对于大规模稀疏的神经网络,可以通过分析激活值的统计特性和对高度相关的输出进行聚类来逐层构建出一个最优网络。这点表明臃肿的稀疏网络可能被不失性能地简化。虽然数学证明有着严格的条件限制,但Hebbian准则有力地支持了这一点:fire together,wire together。 赫布理论(Hebbian theory)描述了突触可塑性的基本原理,即突触前神经元向突触后神经元的持续重复的刺激可以导致突触传递效能的增加。这一理论由唐纳德·赫布于1949年提出,又被称为赫布定律(Hebb's rule)、赫布假说(Hebb's postulate)、细胞结集理论(cell assembly theory)等。他如此表述这一理论:我们可以假定,反射活动的持续与重复会导致神经元稳定性的持久性提升……当神经元A的轴突与神经元B很近并参与了对B的重复持续的兴奋时,这两个神经元或其中一个便会发生某些生长过程或代谢变化,致使A作为能使B 兴奋的细胞之一,它的效能增强了。这一理论经常会被总结为“一起发射的神经元连在一起”(Cells that fire together, wire together)。这可以用于解释“联合学习”(associative learning),在这种学习中通过对神经元的刺激使得神经元间的突触强度增加。这样的学习方法被称为赫布型学习(Hebbian learning)。(摘自百度百科) 早些的时候,为了打破网络对称性和提高学习能力,传统的网络都使用了随机稀疏连接。但是,计算机软硬件对非均匀稀疏数据的计算效率很差,所以在AlexNet中又重新启用了全连接层,目的是为了更好地优化并行运算。 所以,现在的问题是有没有一种方法,既能保持网络结构的稀疏性,又能利用密集矩阵的高计算性能。大量的文献表明可以将稀疏矩阵聚类为较为密集的子矩阵来提高计算性能,据此论文提出了名为Inception 的结构来实现此目的。 2. Architectural Details Inception 结构的主要思路是怎样用密集成分来近似最优的局部稀疏结构。 作者首先提出下图这样的基本结构:

相关主题
文本预览
相关文档 最新文档