火车头采集器教程演示文稿
- 格式:ppt
- 大小:2.02 MB
- 文档页数:31
以采集示例详解部分功能今天要给大家做示例的网站是163的娱乐频道这个应该是个比较通用和实用的规则,下面开始。
如果您是火车采集器的老手,那么您可以参考下,因为我要讲解的会有违传统的思维;如我您是新手那么您最好能仔细看下,因为这将加快您的入门,同时在以后给您节省很多时间。
以下是一些采集的基本步骤,您可以灵活运用:一、建立站点1、请先打开火车采集器,新建站点,看下图:为了方便管理您可以为您的站点取任何的您觉得易记的名称,但是我建议用目标源的名字作为站点的名称有利于日后的管理,如下图大部分的站点,通站往往只有一套模版或者有几套类似的模版,这边所谓的类似讲的是模版中的标记很接近,那什么是模版标记?模版标记指的是某部分内容开始和结束记号。
比如很多正规的网站(通常是一些站点比较大,内容比较多的网站,比如sina、163等)会在内容开始的部分用类似于或等标志来表示内容的开始。
他们这么作的原因有两个,一个是由于内容多,为了各个部门之间的配合而作了对应的标记以便于工程的交接,另一个原因就是内容控制的需要,随着xhtml 的流行,用层控制越来越多,这就使得我们寻找采集标示越来越简单(这点你们以后会慢慢理解的)。
上面给各位讲这些是因为接下来要我们要讲解的是整站内容规则。
2、标题标签讲解。
对应的页面在这:/06/1029/11/2UJNHOS3000322EL.html首先从“站点基本信息”切换到“整站内容规则”,然后把要采集的内容页面的网址拷贝到“典型页面”接着点击“测试”读取源码。
先从标题标签开始,我们发现按默认标签采集回来的标题多了“_网易娱乐”,请双击标题标签或者选种标题标签在点击修改,把“_网易娱乐”添加到排除内容框里,标题标签完成。
如图:3、内容标签讲解。
制作采集规则(任务)的任何一个标签最重要的就在于寻找开始也结束的标志。
目前大部分的采集器要求开始和结束的标志必须是整个源代码的唯一标志,也就是所有的html源码里只能找到一个开始或结束的标志。
火车头采集教程火车头采集基本流程:系统设置→新建站点→新建任务→采集网址→采集内容→发布内容→抓数据。
1.新建站点:据你自己的需求为任务建立统一的站点,以方便管理。
点击菜单上:站点→新建站点打开如下图:可以填写站点名,站点地址,网址深度(0,代表根据地址直接采内容。
1,代表根据地址采内容地址,然后根据内容地址采内容。
2,代表根据地址采列表地址,然后根据列表地址采内容地址,再根据内容地址采内容。
),站点描述。
2.新建任务:任务是采集器采集数据时的基本工作单元,它一定是建立在站点中的。
采集器通过运行任务来采集发布数据。
任务工作的步骤总体可以分为三步:采网址,采内容,发内容。
一个任务的运行可以任意选择哪几步。
而采集器又可以同时运行多个任务(默认设置是同时最多运行3个任务)。
选择站点点击右键选择“从该站点新建任务”。
任务的编辑界面如图:采集器的使用最主要的就是对任务的设置。
而采集数据可以分为两步,第一步是:采网址,第二步:采内容。
3.采集网址:采网址,就是从列表页中提取出内容页的地址。
从页面自动分析得到地址连接:以/book/01.45.52_P1.html页面为例。
我们来采集这个网址上的书信息。
这个页面中有很多书信息的链接,要采集每个链接中书内容.首先需要将每个书信息的链接地址抓取到也就是抓取内容页的地址。
先将该列表页地址添加到采集器里。
点击“<<向导添加”后弹出“添加开始采集地址”对话框。
我们选择“单条网址”如图:点击添加把/book/01.45.52_P1.html地址添加到下面框中,点击完成即实现增加列表地址。
如果我们选择“批量/多页”,如图:可用通配符:(*)可以代替页码变化时的地址之间的差异。
数字变化可以设置你要爬取该列表页多少页。
间隔倍数可以数字页码变化的倍数。
你也可以设置字母变化。
设置完之后点击添加按钮把列表地址添加到下框中,点击完成即可完成列表地址设置。
你也可以选择文本导入和正则提取在这里就不一一讲了,因为这二种基本用的很少。
火车头采集教程1.基本概念:a)采集:就是对页面上有用的信息进行抽取并下载的过程。
b)列表页:有大量内容页面链接的页面,如下:c)内容页:由列表页点击进去的页面,也是真正需要采集的页面,如下:内容页抽取的过程实质上也就是在源代码中找到需要的内容的开始和结束的字符串,系统进行自动匹配的过程,比如上图中”王宝强携….” 这个标题,在源代码中的格式是这样的因此,只需要把上图中的开始和结束字符串拷贝到软件中就可以了(详情见下)2.基本步骤:a)确定需要采集的网站b)观察网站结构,找到列表页,做以下工作i.观察列表页中需要的内容页的链接样式ii.观察列表页第一页、第二页等等的链接样式。
c)对内容页进行模板编写d)开始采集任务。
3.详细实例:下面通过一个具体的例子来具体讲解火车头采集器的工作过程这个例子尝试抓取/NewsList-Front.aspx 这个页面的前5页的内容a)打开程序打开后如下图:b)在站点任务列表树那里右键-》新建站点类似下图c)主界面中出现的标签,在这个标签上右键选择新建站点,如下:出图如下:点击向导添加,对列表页的链接地址进行描述,弹出窗口如下:为了确定在这里填写什么,我们先到需要抓取的列表看看,也就是/NewsList-Front.aspx然后鼠标在页面上浮动,观察它的链接样式,如下图第一页第二页看到这里,我们可以发现,这里的列表页的规则是/NewsList-Front.aspx?page=0/NewsList-Front.aspx?page=1…即:链接前面是不变的,只有后面的页码改变,因此现在我们可以知道上面的表单怎么填了,如下图:这里的(*)代表通配符,系统会自动按照你的规则对这个字符进行替换。
比如,现在的规则是数字变化从0到4,间隔为1,因此,系统自动生成了如预览中的列表样式出来了。
预览中的链接样式确定没有问题后,点击添加。
然后点击完成。
d)现在又回到了这个页现在来观察我们需要的列表中的链接的样式,如下图:从上面我们可以看到,所有的新闻的链接都类似于:/files/2011/10/21/285866.shtml这个链接中/files/这个部分是不变的,后面的可能会根据年月日,标签而改变,还记得我们之前讲的(*)的作用么,没错,这里我们可以这样描述它:/files/(*)/(*)/(*)/(*).shtml把这个填到上图中的文章内容页面的地址比如包含中去吧你一定注意到了,这个表单还有个页面内选定区域采集网址应该怎么填呢。
1、下载的压缩包,随便找个地方解压缩就好,不需要安装。
2、点击文件夹里的文件,执行程序,会打开该软件的主界面;如果有提示出错而打不开,那么是你的电脑缺乏软件所需要的环境,请到下面这个网站/去下载.net框架(红色字链接,直接下载安装就好)3、以聚美优团为例,首先新建一个任务,名字为聚美优团网页编码选择utf-8,这个是很多网站都用到的文字编码,减少乱码。
4、打开聚美优团的网站,发现有过往团购的历史,点击下一页后,其网页地址为:/i/deal/deals?filter=2-0-0-0,再翻一页,其网页地址为:/i/deal/deals?filter=3-0-0-0。
所以推测其规律为:/i/deal/deals?filter=*-0-0-0,*表示一个不断递增的自然数参数。
5、起始网址现在为空,点击旁边的添加,出来一个对话框,选择批量多页选择页数的那个数字,选中它后,然后点击右边的蓝色*符号,于是这个网址变成:大家注意看,输入框内的*符号变成绿色粗体的了,而且下面出现了按照这个规律递增的5个网址。
这里作为实例,我们就选一个比较小的数字,而实际爬取的时候,根据实际情况修改选项中的起止数字。
6、点击网址旁边的“添加”按钮,然后在下面会出现一个表达式,这个是自动生成的,不用修改。
然后点击完成,返回编辑任务对话框。
7、点击第二步,进入采集信息设置的地方,在这里需要确定我们在这个页面上要采集哪些数据我们回到聚美优网上,看看我们需要什么数据:有时间、原价、折扣、现价、节省,虽然没有明确的团购人数,但是有个收货短评和口碑报告,我们这里就来看看怎么采集这些信息吧。
在网页上点击右键,查看源代码,会看到很多html格式的源代码,我们找到表示这个商品的地方然后我们来看:是时间是收货短评这些就是我们需要的信息在代码里的情况,我们把这些前后字符串一一设置到软件里。
8、设置信息的前后代码符号(刚开始的时候,这个表格是空白的)点击添加,出现这样的对话框:我们要做的就是填写标签名,选择循环匹配,然后把想要信息的前后字符分别粘贴到开始字符串和结束字符串两个框框里,然后点确定。
⽕车头采集器采集⽂章使⽤教程实例任务:采集某⼀个指定页⾯的⽂章包括(标题、图⽚、描述、内容)导⼊到⾃⼰⽹站数据库对应栏⽬(栏⽬id为57),数据库字段分别(title,thumb,descrption,content)。
页⾯⾥⾯第⼀张图作为⽂章缩略图,这边⼀个获取缩略图名称并添加上对应⽹站路径放⼊数据库thumb字段,另⼀个是下载下本地,统⼀上传到指定⽂件夹,(当然看软件可以直接ftp,⽬前还没弄,后期弄了会补充)1、新建分组--新建任务2、添加⽹址+ 编辑获取⽹址的规则选择范围在 ul ⾥⾯的 li ⾥⾯的链接,注意排除重复地址,可以点击下⾯测试⽹址采集获取。
可以看到有采集到的⽂章链接了。
3、采集内容规则我这边需要采集下⾯图上展⽰数据(catid是栏⽬id,可以将采集到的数据放⼊对应栏⽬,设置固定值就好)着重说下内容和图⽚的采集,标题和描述同理内容采集内容采集:打开⼀个采集的⽂章页⾯,查看源代码(禁了右键的f11 或者在⽹址前⾯加上 view-source: ⼀样可以查看):选中⽂章开头⼀个位置,截取⼀段在ctrl+f 搜下是否唯⼀⼀段,若是就可以放在位置下图1处,结尾同开头⼀样。
我截取内容不想⾥⾯还带有链接图⽚可以数据处理,添加--html标签排除--选好确定--确定还有需要下载页⾯图⽚,勾选和填写下⾯选项图⽚采集:(1)选中范围和内容⼀样(⽂章内图⽚)(2)数据处理选提取第⼀张图⽚内容是:/2017/33/aa.jpg(3)只要aa.jpg,正则过滤 ,获取内容:aa.jpg (4)数据库存储有前缀,添加上, upload/xxxxx/找⼀个页⾯测试⼀下,可以看到对应项⽬都获取到了。
4、发布内容设置,这⾥以⽅式三发布到数据库为例⼦,编辑后回到这边勾选刚定义的模块就好:5、我需要保存图⽚到本地,要设置下保存⽂件的路径(ftp后续会试着使⽤)。
6、保存,查看刚新建的任务,右键开始任务运⾏,这边就可以看到⽂字和图⽚都下载下来了,数据库⾥⾯也可以看到了。
火车采集器采集原理,流程介绍先说一下,什么是数据采集呢?我们可以这样理解,我们打开一个网站,看到有一篇文章很不错,于是我们就将文章的标题和内容复制了一下,将这篇文章转到我们的网站上.我们的这个过程,就可以称作一个采集,将别人网站上对自己有用的信息转到自己网站上.采集器也是这样,不过整个过程是由软件完成的.我们可以这样理解,我们复制文章的标题和内容,是我们可以知道什么地方是内容,什么地方是标题, 但是软件是不知道的,所以我们要告诉软件,要怎么采,这就是写规则的过程..我们复制完了,打开我们网站,比如论坛发帖的地方,然后粘帖发表,对软件来说,就是模仿我们发表帖子的过程,去发表文章,怎么发布,这就是发布模块的事了..火车采集器就是一款用来采集数据的软件,它是目前网络上最强大的采集器.它几乎可以采到你所见到的任何网页内容。
火车采集器数据抓取原理:火车采集器如何去抓取数据,取决于您的规则。
您要获取一个栏目的网页里的所有内容,需要先将这个网页的网址采下来,这就是采网址。
程序按您的规则抓取列表页面,从中分析出网址,然后再去抓取获得网址的网页里的内容。
再根据您的采集规则,对下载到的网页分析,将标题内容等信息分离开来并保存下来。
如果您选择了下载图片等网络资源,程序会对采集到的数据进行分析,找出文章下载地址并下载到本地。
火车采集器数据发布原理:在我们将数据采集下来后数据默认是保存在本地的,我们可以使用以下几种方式对种据进行处理。
1.不做任何处理。
因为数据本身是保存在数据库的(access或是db3),您如果只是想看一下,直接用相关软件查看就可以了。
2.web发布到网站。
程序会模仿浏览器向您的网站发送数据,可以实现您手工发布的效果。
3.直接入数据库。
您只需写几个SQL语句,程序会将数据按您的SQL语句导入到数据库中。
4.保存为本地文件。
程序会读取数据库里的数据,按一定格式保存为本地sql或是文本文件。
火车采集器工作流程:火车头采集是可以分成两个步骤的,一是采集数据,二是发布数据。
火车采集器V2010SP3版(实现内容自动更新的采集软件)前提:本软件要求电脑安装net framework2.0或2.0以上框架支持。
一、火车采集器V2010SP3版,可供下载地址:/Down/LocoySpider/LocoySpider2010SP3.html二、net framework2.0,可供下载地址:/download/-Fra mework-2.0-For-Win98SE-ME-2000-XP/火车采集器和net framework2.0安装好后,可进行如下操作,操作步骤为:一、1.在一堆文件中,找到如下图标(画有红方框、状似火车头的),并双击打开。
2.打开后可以看到如下界面,看着很复杂,但对于新手而言很多东西是暂时用不到的。
在界面空白处(如下图红框区域内)右击,选择箭头所指“新建站点”。
输入站点名,例如:“西装”,保存即可。
3.在新建站点“西装”(红框区域)处选中再右击,选择从该站点新建任务。
二、第一步:采集网址规则1.先要找到自动更新的内容来源:如经常更新关注度较高的博客、专业网站等,这里我们就拿淘宝论坛举个例子。
找到开始采集地址栏右侧,点击向导添加。
2.添加开始采集地址中的多页类似地址形式前,要分析一下它的类似形式,例:我们在淘宝论坛中搜索“西服”相关内容,然后任意翻阅不同的页数查看它的网页地址。
第一页地址、第二页地址、第三页地址分别为:以此类推,分析出其不同点在于上图红框处的数字变化,因此:假如我们只采集论坛的第一页,就在多页类似地址形式栏粘贴第一页的网址,按一下(*)将选中的数字1替换成(*),再将数字变化改为相应页数:1, 然后点击添加、完成。
3.接着,找到如下图的相应位置分析规则并分别输入:必须包含“thread”,不得包含“post|pc”,任务名:这里设为“第一页”。
【可以点击开始测试网址采集,检测一下是否将网页都采集过来了。
若要返回到刚才上一级页面,点击返回修改设置即可。