locoy火车头采集教程与实例
- 格式:doc
- 大小:3.28 MB
- 文档页数:16
以采集示例详解部分功能今天要给大家做示例的网站是163的娱乐频道这个应该是个比较通用和实用的规则,下面开始。
如果您是火车采集器的老手,那么您可以参考下,因为我要讲解的会有违传统的思维;如我您是新手那么您最好能仔细看下,因为这将加快您的入门,同时在以后给您节省很多时间。
以下是一些采集的基本步骤,您可以灵活运用:一、建立站点1、请先打开火车采集器,新建站点,看下图:为了方便管理您可以为您的站点取任何的您觉得易记的名称,但是我建议用目标源的名字作为站点的名称有利于日后的管理,如下图大部分的站点,通站往往只有一套模版或者有几套类似的模版,这边所谓的类似讲的是模版中的标记很接近,那什么是模版标记?模版标记指的是某部分内容开始和结束记号。
比如很多正规的网站(通常是一些站点比较大,内容比较多的网站,比如sina、163等)会在内容开始的部分用类似于或等标志来表示内容的开始。
他们这么作的原因有两个,一个是由于内容多,为了各个部门之间的配合而作了对应的标记以便于工程的交接,另一个原因就是内容控制的需要,随着xhtml 的流行,用层控制越来越多,这就使得我们寻找采集标示越来越简单(这点你们以后会慢慢理解的)。
上面给各位讲这些是因为接下来要我们要讲解的是整站内容规则。
2、标题标签讲解。
对应的页面在这:/06/1029/11/2UJNHOS3000322EL.html首先从“站点基本信息”切换到“整站内容规则”,然后把要采集的内容页面的网址拷贝到“典型页面”接着点击“测试”读取源码。
先从标题标签开始,我们发现按默认标签采集回来的标题多了“_网易娱乐”,请双击标题标签或者选种标题标签在点击修改,把“_网易娱乐”添加到排除内容框里,标题标签完成。
如图:3、内容标签讲解。
制作采集规则(任务)的任何一个标签最重要的就在于寻找开始也结束的标志。
目前大部分的采集器要求开始和结束的标志必须是整个源代码的唯一标志,也就是所有的html源码里只能找到一个开始或结束的标志。
火车头采集教程火车头采集基本流程:系统设置→新建站点→新建任务→采集网址→采集内容→发布内容→抓数据。
1.新建站点:据你自己的需求为任务建立统一的站点,以方便管理。
点击菜单上:站点→新建站点打开如下图:可以填写站点名,站点地址,网址深度(0,代表根据地址直接采内容。
1,代表根据地址采内容地址,然后根据内容地址采内容。
2,代表根据地址采列表地址,然后根据列表地址采内容地址,再根据内容地址采内容。
),站点描述。
2.新建任务:任务是采集器采集数据时的基本工作单元,它一定是建立在站点中的。
采集器通过运行任务来采集发布数据。
任务工作的步骤总体可以分为三步:采网址,采内容,发内容。
一个任务的运行可以任意选择哪几步。
而采集器又可以同时运行多个任务(默认设置是同时最多运行3个任务)。
选择站点点击右键选择“从该站点新建任务”。
任务的编辑界面如图:采集器的使用最主要的就是对任务的设置。
而采集数据可以分为两步,第一步是:采网址,第二步:采内容。
3.采集网址:采网址,就是从列表页中提取出内容页的地址。
从页面自动分析得到地址连接:以/book/01.45.52_P1.html页面为例。
我们来采集这个网址上的书信息。
这个页面中有很多书信息的链接,要采集每个链接中书内容.首先需要将每个书信息的链接地址抓取到也就是抓取内容页的地址。
先将该列表页地址添加到采集器里。
点击“<<向导添加”后弹出“添加开始采集地址”对话框。
我们选择“单条网址”如图:点击添加把/book/01.45.52_P1.html地址添加到下面框中,点击完成即实现增加列表地址。
如果我们选择“批量/多页”,如图:可用通配符:(*)可以代替页码变化时的地址之间的差异。
数字变化可以设置你要爬取该列表页多少页。
间隔倍数可以数字页码变化的倍数。
你也可以设置字母变化。
设置完之后点击添加按钮把列表地址添加到下框中,点击完成即可完成列表地址设置。
你也可以选择文本导入和正则提取在这里就不一一讲了,因为这二种基本用的很少。
1、下载的压缩包,随便找个地方解压缩就好,不需要安装。
2、点击文件夹里的文件,执行程序,会打开该软件的主界面;如果有提示出错而打不开,那么是你的电脑缺乏软件所需要的环境,请到下面这个网站/去下载.net框架(红色字链接,直接下载安装就好)3、以聚美优团为例,首先新建一个任务,名字为聚美优团网页编码选择utf-8,这个是很多网站都用到的文字编码,减少乱码。
4、打开聚美优团的网站,发现有过往团购的历史,点击下一页后,其网页地址为:/i/deal/deals?filter=2-0-0-0,再翻一页,其网页地址为:/i/deal/deals?filter=3-0-0-0。
所以推测其规律为:/i/deal/deals?filter=*-0-0-0,*表示一个不断递增的自然数参数。
5、起始网址现在为空,点击旁边的添加,出来一个对话框,选择批量多页选择页数的那个数字,选中它后,然后点击右边的蓝色*符号,于是这个网址变成:大家注意看,输入框内的*符号变成绿色粗体的了,而且下面出现了按照这个规律递增的5个网址。
这里作为实例,我们就选一个比较小的数字,而实际爬取的时候,根据实际情况修改选项中的起止数字。
6、点击网址旁边的“添加”按钮,然后在下面会出现一个表达式,这个是自动生成的,不用修改。
然后点击完成,返回编辑任务对话框。
7、点击第二步,进入采集信息设置的地方,在这里需要确定我们在这个页面上要采集哪些数据我们回到聚美优网上,看看我们需要什么数据:有时间、原价、折扣、现价、节省,虽然没有明确的团购人数,但是有个收货短评和口碑报告,我们这里就来看看怎么采集这些信息吧。
在网页上点击右键,查看源代码,会看到很多html格式的源代码,我们找到表示这个商品的地方然后我们来看:是时间是收货短评这些就是我们需要的信息在代码里的情况,我们把这些前后字符串一一设置到软件里。
8、设置信息的前后代码符号(刚开始的时候,这个表格是空白的)点击添加,出现这样的对话框:我们要做的就是填写标签名,选择循环匹配,然后把想要信息的前后字符分别粘贴到开始字符串和结束字符串两个框框里,然后点确定。
关于火车头使用方法目录目录 (2)一、原理描述 (3)1.火车采集器数据抓取原理: (3)2.火车采集器数据发布原理: (3)3.火车采集器工作流程: (3)二、术语解释 (4)三、下载地址 (5)四、安装升级与卸载 (6)五、操作步骤 (7)一、原理描述1.火车采集器数据抓取原理:火车采集器如何去抓取数据,取决于您的规则。
您要获取一个栏目的网页里的所有内容,需要先将这个网页的网址采下来,这就是采网址。
程序按您的规则抓取列表页面,从中分析出网址,然后再去抓取获得网址的网页里的内容。
再根据您的采集规则,对下载到的网页分析,将标题内容等信息分离开来并保存下来。
如果您选择了下载图片等网络资源,程序会对采集到的数据进行分析,找出图片,资源等的下载地址并下载到本地。
2.火车采集器数据发布原理:在我们将数据采集下来后数据默认是保存在本地的,我们可以使用以下几种方式对数据进行处理。
1、不做任何处理。
因为数据本身是保存在数据库的(access、db3、mysql、sqlserver),您如果只是查看数据,直接用相关软件打开查看即可。
2、Web发布到网站。
程序会模仿浏览器向您的网站发送数据,可以实现您手工发布的效果。
3、直接入数据库。
您只需写几个SQL语句,程序会将数据按您的SQL语句导入到数据库中。
4、保存为本地文件。
程序会读取数据库里的数据,按一定格式保存为本地sql或是文本文件。
3.火车采集器工作流程:火车采集器采集数据是分成两个步骤的,一是采集数据,二是发布数据。
这两个过程是可以分开的。
1、采集数据,这个包括采集网址,采集内容。
这个过程是获得数据的过程。
我们做规则,在采的过程中也算是对内容做了处理。
2、发布内容就是将数据发布到自己的论坛,CMS的过程,也是实现数据为已有的过程。
可以用WEB在线发布,数据库入库或存为本地文件。
具体的使用其实是很灵活的,可以根据实际来决定。
比如我可以采集时先采集不发布,有时间了再发布,或是同时采集发布,或是先做发布配置,也可以在采集完了再添加发布配置。
首先打开火车头程序,在此之前,确认电脑已经安装.Netframework2.0点击新建---》分组输入分组名称然后保存选中你刚才新建的分组,鼠标右键,新建任务点击添加,然后选中多页打开这个界面后,需要注意下面几个地方第一个是要输入你需要采集的文章列表页。
以/slgxbyun/slgzl_slgzlby_2.html为例子,可以看下,点击网页的上一页和下一页,可以看出/slgxbyun/slgzl_slgzlby_3.html页面变化的是最后的一个数字,这个数字可以用界面里的通配符(*)代替。
把通配符给放上去以后,软件就会自动获取需要采集的网页了。
可以注意下,在等差数列有几个参数:首页、项数、公差。
首页就是文章列表页的开始页码,例子里开始的数值是1,所以这里不动他。
项数是你想采集多少页的量。
如果你想采集2页,那这个项数就是2。
公差就是每页之间的变动量,就是刚才说的,上一页,下一页,之间的变动量,例子里的变动是1,这里也就不动了。
然后选择其中的一个列表页,点击添加,完成。
现在已经获取到了列表页的内容,下面需要设置要采集的内容。
点击添加然后需要设置2个部分,一个是采集的开头,一个是采集的结束这个需要到我们一开始实例的网址页面去找。
找列表页的开始部分和结束部分。
在页面里鼠标右键,查看源代码。
然后我们看一下,我们需要采集的内容只是这一段代码然后我们就需要告诉采集器,我们要采集的是这些东西。
所以就要设置一个开始,和一个结束。
我们一定要注意,这个开始部分的代码和结束部分的代码,一定是要这个源代码里唯一的,这样才能让采集器正确的采集到我们想要采集的内容。
所以要把这2段代码分别放在开始部分和结束部分里。
然后点击保存。
然后回到这个界面,你可以点击,测试网址采集,查看你刚才是不是采集到了这些列表内的文章。
如下图所示。
然后随便选中一条内容页的链接。
双击,进入第二步,内容页的采集部分。
在这里需要注意2个地方,一个是标题的采集,一个是内容的采集。
⽕车头采集器采集⽂章使⽤教程实例任务:采集某⼀个指定页⾯的⽂章包括(标题、图⽚、描述、内容)导⼊到⾃⼰⽹站数据库对应栏⽬(栏⽬id为57),数据库字段分别(title,thumb,descrption,content)。
页⾯⾥⾯第⼀张图作为⽂章缩略图,这边⼀个获取缩略图名称并添加上对应⽹站路径放⼊数据库thumb字段,另⼀个是下载下本地,统⼀上传到指定⽂件夹,(当然看软件可以直接ftp,⽬前还没弄,后期弄了会补充)1、新建分组--新建任务2、添加⽹址+ 编辑获取⽹址的规则选择范围在 ul ⾥⾯的 li ⾥⾯的链接,注意排除重复地址,可以点击下⾯测试⽹址采集获取。
可以看到有采集到的⽂章链接了。
3、采集内容规则我这边需要采集下⾯图上展⽰数据(catid是栏⽬id,可以将采集到的数据放⼊对应栏⽬,设置固定值就好)着重说下内容和图⽚的采集,标题和描述同理内容采集内容采集:打开⼀个采集的⽂章页⾯,查看源代码(禁了右键的f11 或者在⽹址前⾯加上 view-source: ⼀样可以查看):选中⽂章开头⼀个位置,截取⼀段在ctrl+f 搜下是否唯⼀⼀段,若是就可以放在位置下图1处,结尾同开头⼀样。
我截取内容不想⾥⾯还带有链接图⽚可以数据处理,添加--html标签排除--选好确定--确定还有需要下载页⾯图⽚,勾选和填写下⾯选项图⽚采集:(1)选中范围和内容⼀样(⽂章内图⽚)(2)数据处理选提取第⼀张图⽚内容是:/2017/33/aa.jpg(3)只要aa.jpg,正则过滤 ,获取内容:aa.jpg (4)数据库存储有前缀,添加上, upload/xxxxx/找⼀个页⾯测试⼀下,可以看到对应项⽬都获取到了。
4、发布内容设置,这⾥以⽅式三发布到数据库为例⼦,编辑后回到这边勾选刚定义的模块就好:5、我需要保存图⽚到本地,要设置下保存⽂件的路径(ftp后续会试着使⽤)。
6、保存,查看刚新建的任务,右键开始任务运⾏,这边就可以看到⽂字和图⽚都下载下来了,数据库⾥⾯也可以看到了。
火车采集器V2010SP3版(实现内容自动更新的采集软件)前提:本软件要求电脑安装net framework2.0或2.0以上框架支持。
一、火车采集器V2010SP3版,可供下载地址:/Down/LocoySpider/LocoySpider2010SP3.html二、net framework2.0,可供下载地址:/download/-Fra mework-2.0-For-Win98SE-ME-2000-XP/火车采集器和net framework2.0安装好后,可进行如下操作,操作步骤为:一、1.在一堆文件中,找到如下图标(画有红方框、状似火车头的),并双击打开。
2.打开后可以看到如下界面,看着很复杂,但对于新手而言很多东西是暂时用不到的。
在界面空白处(如下图红框区域内)右击,选择箭头所指“新建站点”。
输入站点名,例如:“西装”,保存即可。
3.在新建站点“西装”(红框区域)处选中再右击,选择从该站点新建任务。
二、第一步:采集网址规则1.先要找到自动更新的内容来源:如经常更新关注度较高的博客、专业网站等,这里我们就拿淘宝论坛举个例子。
找到开始采集地址栏右侧,点击向导添加。
2.添加开始采集地址中的多页类似地址形式前,要分析一下它的类似形式,例:我们在淘宝论坛中搜索“西服”相关内容,然后任意翻阅不同的页数查看它的网页地址。
第一页地址、第二页地址、第三页地址分别为:以此类推,分析出其不同点在于上图红框处的数字变化,因此:假如我们只采集论坛的第一页,就在多页类似地址形式栏粘贴第一页的网址,按一下(*)将选中的数字1替换成(*),再将数字变化改为相应页数:1, 然后点击添加、完成。
3.接着,找到如下图的相应位置分析规则并分别输入:必须包含“thread”,不得包含“post|pc”,任务名:这里设为“第一页”。
【可以点击开始测试网址采集,检测一下是否将网页都采集过来了。
若要返回到刚才上一级页面,点击返回修改设置即可。
火车头采集步骤和数据导出详解火车头采集是指通过特定的设备和技术手段,对火车头进行数据采集和监测的过程。
火车头是火车的关键部件,对其进行数据采集和监测可以帮助运维人员了解火车头的工作状态,及时发现问题并采取相应的措施,提高列车的安全性和运行效率。
一、准备工作:1.确定采集目标:根据实际需求确定需要采集的数据类型和参数。
通常包括火车头的速度、温度、振动、轴承磨损情况等。
2.选择采集设备:根据采集目标选择合适的采集设备。
常见的设备包括传感器、数据采集器、数据传输设备等。
3.安装采集设备:将选择的采集设备安装在火车头上。
根据需要进行布线、连接传感器、设置传感器参数等工作。
4.配置采集软件:根据采集设备的要求,配置采集软件。
通常需要设置数据采集频率、存储路径、采集模式等参数。
二、数据采集:1.启动采集设备:确保采集设备已经正确安装并与火车头建立了连接后,可以启动采集设备。
根据实际情况,可以手动启动或者设置自动启动。
2.开始采集:采集设备启动后,开始自动采集火车头的相关数据。
设备会按照预设的频率进行数据采集,并将采集到的数据进行存储或实时传输。
3.数据质量控制:在采集过程中,需要对数据进行质量检验和控制。
例如,通过采集设备的设定检测数据的完整性、准确性等指标。
4.故障检测与维护:在数据采集过程中,及时发现和处理采集设备的故障和问题,确保数据采集的连续性和准确性。
三、数据导出:1.数据存储:采集设备将采集到的数据按照预设的存储路径进行存储。
可以选择本地存储、云端存储等方式。
2.数据处理:将存储的原始数据进行处理和分析,提取有用信息。
例如,可以利用图表、统计分析等方法展示数据的变化和趋势。
3. 数据导出:将处理后的数据进行导出,以供后续使用。
可以选择导出为Excel表格、CSV文件等常见格式,以便于后续的数据分析和应用。
4.数据备份:对导出的数据进行及时的备份和存档,以防止数据丢失或损坏。
总结:火车头采集涉及到准备工作、数据采集和数据导出三个主要环节。
火车头采集器教程演示文稿一、介绍你好,大家好!今天我非常荣幸给大家介绍一个非常实用的工具,火车头采集器。
它是一款强大的网络数据采集工具,可以帮助我们快速获取互联网上的各种信息。
二、功能1.数据采集:可以采集各种网站上的数据,如商品信息、新闻、评论等。
2.数据筛选:可以根据指定的条件对采集到的数据进行筛选和整理,提高数据的质量。
3. 数据导出:可以将采集到的数据导出为Excel、CSV等格式,方便进行后续分析和处理。
4.定时采集:可以设置定时任务,实现自动采集数据功能。
5.模拟登录:可以模拟用户的登录操作,以获得更多的数据。
6.反爬虫模式:可以通过一系列的反爬虫策略,规避网站的反爬虫机制,提高数据采集的成功率。
三、操作步骤下面我将为大家演示如何使用火车头采集器进行数据采集。
1.打开火车头采集器软件,点击左上角的“新建任务”按钮。
2.在弹出的窗口中,输入任务名称和要采集的网站URL,点击确定。
5.等待采集完成后,点击“导出数据”按钮,选择导出格式和保存路径,并点击确定。
6.打开导出的文件,即可查看采集到的数据。
四、常见问题及解决方法1.采集速度较慢:可以尝试调整线程数和延时时间,以提高采集速度。
2.采集到的数据不完整:可以检查采集器的配置是否正确,并尝试使用正则表达式提取所需数据。
3.被网站反爬虫封IP:可以使用代理IP或者设置访问频率来规避网站的反爬虫机制。
4.无法模拟登录:可以检查登录账号和密码是否正确,并确保网站的登录接口没有变动。
5.无法启动采集器:可以检查网络连接是否正常,并尝试重新安装软件。
五、总结火车头采集器是一款功能强大、易于操作的网络数据采集工具,可以帮助我们快速获取互联网上的各种信息。
通过本次演示,我相信大家已经对火车头采集器的使用有了初步的了解。
希望大家能够通过学习和实践,更好地应用这个工具,在数据采集和处理方面取得更好的成果。
谢谢大家!。
火车头发布模块制作(dede5.7)图文教程说明:为方便大家更好的学习和掌握火车头采集器((LocoySpider)自定义发布模块的制作,本人通过火车头采集器((LocoySpider)安装配置教程以具体的实例用图文教程的方式全面介绍火车头采集器((LocoySpider)自定义发布模块的制作的方法和技巧,方便大家学习和使用。
如果有兴趣登陆可视教程论坛在线学习和观看火车头采集器((LocoySpider)自定义发布模块的制作入门到精通视频教程.本文以图文方式全面详细介绍火车头采集器((LocoySpider)为dede5.7量身制作自定义发布模块。
一、打开抓包工具Fiddler2汉化版二、打开ie,登陆/dede/后台用管理员登陆dede后台。
抓包工具有如下数据:找到其中的login.php文件:如下上图右边红框内容如下:POST /dede/login.php HTTP/1.1Host:User-Agent:Mozilla/5.0(Windows NT6.1;WOW64;rv:28.0)Gecko/20100101Firefox/28.0 Accept:text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8Accept-Language:zh-cn,zh;q=0.8,en-us;q=0.5,en;q=0.3Accept-Encoding:gzip,deflateReferer:/dede/login.php?gotopage=%2Fdede%2Findex.phpCookie:menuitems=1_1%2C2_1%2C3_1%2C4_1;cyan_uv=C62149898D900001D7B51A6E683024D0; lastCid=3;lastCid__ckMd5=86ae82e846e9c1b1; ENV_GOBACK_URL=%2Fdede%2Fmychannel_main.php;PHPSESSID=v806m80pcefgmsmgvlcgao5u66 Connection:keep-aliveContent-Type:application/x-www-form-urlencodedContent-Length:106gotopage=%2Fdede%2Findex.php&dopost=login&adminstyle=newdedecms&userid=admin&pwd= hncctv&validate=rug1&sm1=三、打开火车头,并新建发布:设置网站自动登陆将上面段中文字红色部分,分别粘贴到下图1,2,3对应的地方:把用户名,密码,验证码对应的值-用标签替换。
火车头采集器使用教程本文将以火车头采集器为例,介绍如何使用火车头采集器进行数据采集。
第一步:安装火车头采集器第二步:打开火车头采集器安装完成后,可以在桌面或开始菜单中找到火车头采集器的图标,双击图标打开火车头采集器。
第三步:设置采集任务在火车头采集器中,可以点击左上角的“新建任务”按钮,进入任务设置界面。
在任务设置界面中,可以设置任务的名称、采集URL、采集深度等。
任务名称:在任务名称中,可以自定义一个任务的名称,以便于区分不同的任务。
采集URL:在采集URL中,输入需要采集的网页地址。
可以是单个页面地址,也可以是一个网站的首页地址。
如需采集多个页面,可以使用正则表达式进行匹配。
采集深度:设置采集的深度,即采集页面时要访问的页面层数。
可选择采集每个页面的链接,并设置最大采集页面数量。
第四步:配置数据采集规则在任务设置界面中,可以选择“设置规则”选项卡,配置数据采集规则。
火车头采集器通过选择页面上的元素,并设置相关规则来进行数据采集。
选择元素:点击“选择元素”按钮,鼠标变为十字形状,将鼠标移动到需要采集的元素上,点击元素即可选择。
可以选择文本、链接、图片、表格等各种类型的页面元素。
设置规则:在选择元素后,可以设置采集规则。
规则包括提取文本、提取链接、提取图片、提取HTML等。
可以选择提取的方式,并设置相应的规则。
点击“确定”按钮后,数据采集规则即配置完成。
第五步:开始采集数据在任务设置界面中,可以点击“开始”按钮,开始采集数据。
火车头采集器将自动按照设置的规则,采集页面上的数据。
在采集过程中,可以在任务设置界面的“日志”选项卡中查看运行日志,了解数据采集的进程和结果。
第六步:保存数据数据采集完成后,可以点击任务设置界面中的“保存数据”按钮,保存采集到的数据。
可以选择保存为Excel、CSV等格式,也可以选择保存到数据库或云端服务器中。
第七步:数据清洗和分析采集到的原始数据可能存在一些噪声或冗余,需要进行数据清洗和分析。
1、火车头介绍2、什么是信息采集3、什么是火车头4、火车头是干啥的5、火车头规则定制6、规则编写流程7、采网址详解8、采内容详解9、注意事项什么是火车头?我们打开一个网站,看到有一篇文章很不错,于是我们就将文章的标题和内容复制了一下,将这篇文章转到我们的网站上.我们的这个过程,就可以称作一个采集,将别人网站上对自己有用的信息转到自己网站上;互联网上的内容,大多数都是通过复制-修改-黏贴的过程产生的,所以信息采集很重要,也很普遍,我们平台发到网站上的文章,多数也是这样的一个过程;为什么很多人感觉新闻更新很麻烦,因为这个工作是重复的,枯燥乏味的,浪费时间的;火车头是目前国内使用人数最多、功能最完善、网站程序支持最全面、数据库支持最丰富的软件产品;现在是大数据时代,它可以快速、批量、海量的获取到互联网上的数据,并按照我们需要的格式存储起来;说的简单一点,对我们来说有什么用?我们需要更新新闻,需要发商机,如果让你准备1000篇文章,你要用多久?5个小时?在有规则的情况下,火车头只需要5分钟!前提是有规则,所以我们要先学写规则,写规则如果数量的话,一个规则几分钟就好了,但刚开始学的时候会比较慢;名称解释与规则编写流程以火车头8.6版本为准第1步:打开—登录第2步:新建分组第3步:右击分组,新建任务,填写任务名;第4步:写采集网址规则(起始网址和多级网址获取)第5步:写采集内容规则(如标题、内容)第6步:发布内容设置勾选启用方式二(1)保存格式:一条记录保存为一个txt;(2)保存位置自定义;(3)文件模板不用动;(4)文件名格式:点右边的倒立笔型选[标签:标题];(5)文件编码可以先选utf-8,如果测试时数据正常,但保存下来的数据有乱码则选gb2312;第7步:采集设置,都选100;a.单任务采集内容线程个数:同时可以采集几个网址;b.采集内容间隔时间毫秒数:两个任务的间隔时间;c.单任务发布内容线程个数:一次保存多少条数据;d.发布内容间隔时间毫秒数:两次保存数据的时间间隔;附注:如果网站有防屏蔽采集机制(如数据很多但只能采集一部分下来,或提示多久才能打开一次页面),则适当调小a值和调大b的值;第8步:保存、勾选并开始任务(如果是同一分组的,可以在分组上批量选中)以前的方式:比如我要准备n篇文章,要先找到这个文章是在哪个网站上的(如是采集同行A还是同行B),是在其哪个栏目下的(如是产品信息还是新闻信息),在这个栏目下有n条信息,我要选哪一条,然后进去后把标题复制下来,把内容复制下来再进到另一个页面把标题内容复制下来,以此类推,然后同样的流程我要执行n遍;怎么转换:怎么把这个流程转化为软件操作呢?我要准备n篇新闻,这就表明要n个标题+对应的内容,要n个新闻链接,这n个新闻链接是从一个网站的新闻栏目上找的,而这个网站的新闻栏目有可能是很多页,比如10页,这个时候再从同行A的网站—栏目—内页;即先找到要采集的网站,打开这个网站的栏目页(确定好是采集新闻还是产品),写网址规则采集栏目下的所有新闻链接,然后写内容规则采集所有新闻链接中的标题和内容,最后保存下来;采网址详解-具体操作找到要采集网址的栏目页,如新闻栏目复制栏目的第一页链接url,起始网址右侧中点添加,在单条网址中黏贴栏目的第一页链接后点添加,如用右边的(*)代替,因为第1页已经添加了,还剩9页,这时在等差数列那一行把项数改成9,首项是2(因为第2页的链接是,然后点添加-完成;1、点对应右侧的添加,然后如下图所示是示例,右侧大图是说明;2、点击保存后点右下角的看看是否能采集到新闻网址,如果能采集到则正确,双击一个新闻网址进到下一步;如果采集到的不正确,返回修改直到成功;网址过滤可以自己观察其对应的规律;1、到采集内容规则这里后,把作者、时间、出处都选中后删掉,如右面第一张图,因为这些标签正常情况下都用不到;2、选中标题标签点修改,或直接双击该标签,进入编辑界面;3、进入后标签名的“标题”别改,改过后是要改对应的模板的;4、下面的数据提取方式:前后截取和开始结束字符串,也尽量用默认的,在不熟练的情况下不要改;5、点击下面数据处理的添加—内容替换,如右图;6、内容替换将标题后面的都替换为空,如果不替换的话采集的是页面title,这时需要打开两个新闻页面,看看这两个新闻页面的公共部分是什么,把公共部分替换掉例:如下面两个标题,“- 顶尖SEO团队”是公共部分,即把其替换为“空”;【图文】你知道螺旋加料机的加工方法吗螺旋加料机原理你了解吗【图文】气动式加料机的优点是什么你知道粉末加料机工作原理吗例:如下面的则需要把“-健康网”替换成“空”;例:如下面的则需要把“-健康网”替换成“空”;我喜欢吃西瓜-健康网苹果好吃吗?-健康网1、选中内容点编辑,或直接双击进入到内容标签编辑界面,标签名千万别改;2、写开始和结束字符串,就是找能把所有新闻都包裹起来的,在所有新在所有新闻页面中都是闻页面中都有的,且是唯一的一段字符串;即这个页面模板中的唯一代码串;举例:采集内容的时候,需要选择内容区域,因为要采集的可能是n篇,如100篇,这个时候就需要想法怎么能写一个采集到全部的,方法就是打开两个新闻链接如,查看第一篇新闻的源文件,找到新闻正文,然后向上找离新闻第一句话最近的,在这个页面中是唯一的一段代码(如果不唯一,软件能知道从第几个开始吗?),但又不是新闻中的内容,如<div id=“zoom”>,复制后在第二篇新闻页面源文件中搜一下看看有没有,如果有,则可采用;同理找到新闻最后一句话,向下找离其最近的页面中唯一的一段代码,复制后在第二篇新闻页面源文件中搜一下看看有没有,如果有,则可采用;数据处理:因为采集的是其他网站的信息,里面有可能有其他网站的资料,如公司名、联系方式、品牌等信息,也可能有其他网站的超链接等信息,这个时候就需要对信息进行过滤处理;数据处理—添加—下面对应的参数HTML标签过滤:滚动轴横向拉到最后,在所有标签前面打钩后点确定;内容替换:将这个网站的信息替换成自己的,原则是先整后拆,有公司名、电话号(拆分)、手机号(拆分)、邮箱、公司地址(拆分)、品牌名、网址(拆分);其中拆分的意思是对这个数据进行拆解替换,这个时候就需要做如下替换:因为在新闻中,,这是时候就需要对其拆解替换才能替换干净,可以多看一下他的新闻中,可能会用什么样的格式;注:数据处理还有很多技巧,需要自己在使用的过程中琢磨,更是采集的核心,如果处理不好,有可能是为他人做嫁衣,所以一定要仔细观察,考虑全面,如果处理好了,采集下来的文章甚至可以直接就发布(非自己企业站)注意事项1、右击分组:会出现如下图菜单,正常都能用到;新建任务:在此分组上新建任务;运行该分组下所有任务:顾名思义;新建任务:在该分组下再建分组;编辑/删除分组:编辑/删除当前分组;导入/导出分组规则:可以导出当前分组下的所有任务,并导入到同版本火车头上;导入任务至该分组:将导出的单个任务导入到该分组下面;黏贴任务到该分组下:要复制过任务后此项才出现,可以黏贴多个同样的任务,然后再黏贴后的任务上进行编辑即可;开始任务:和菜单栏上的开始一样;编辑任务:编辑已经写好的任务;导出任务:可以将当前规则导出,在其他同版本工具上导入,但导入数据时需重复上面的第6步-发布内容设置,必须要重新选/填一遍;复制任务到黏贴板:复制后,选择一个任务分组并右击,可以黏贴不同数量的任务到那个分组中,这样就避免同一个任务多次编写了;清空任务所有采集数据:新如果之前采集过任务想重新采集的,则需求先清空;3、其他设置:顶部菜单栏中点击工具—选项,配置全局选项和默认选项;全局选项:可以调整下同时运行任务最大个数,正常是5即可,可不调;默认选项:是否忽略大小写点是;。
ITool网站综合查询系统火车头采集说明
1.火车头下载
下载地址:/
2.后台配置
后台站点设置,配置火车头入库KEY
3.如何采集
请先完成第4步,火车头配置部分
网址采集可以按自己需要的,自己组合,格式必须要求是/ 必须是http://www.开头,用/结尾
此处介绍一种比较方便的方法
使用百度高级搜索,/gaoji/advanced.html
每页100条,将网址复制过来
设置正则
完成后,点提取地址
选择“IT ool采集”点“开始”,即可开始采集
4.火车头配置
将IT ool网站综合查询系统.cwr文件,放置到火车头Module目录里
打开火车头软件
新建一个站点
导入任务,选择IT ool采集.ljob文件
双击IT ool采集
启用“WEB在线发布到网站”
点击“定义web在线发布全局设置”
点“添加”
配置WEB发布信息
关闭配置管理
添加发布配置
选择刚才添加的配置,添加
配置入库KEY
配置完成!。
如何使用火车头采集器火车头采集器7.6 免费版,功能有很多限制,但我已使用它实现了采集与发布(带图片、排版)。
图片是通过采集程序下载到本地,放在一个约定好名字的文件夹中,最后人工上传到服务器DZ程序运行目录下的pic目录下。
下载火车头采集器7.6版本LocoySpider_V7.6_Build20120912.Free.zip,解决后可运行。
需要.NET 环境。
程序是Discuz!X 2.5 GBK版本。
核心工作有两部分:1、采集,2、发布。
本文重点说如何发布(带图片、排版),简单说如何采集。
一、新建一个使用UBB格式的Web在线发布模块因为采集下来的文章内容是HTML格式,如:<p>正文</p>这样带有HTML标签的文本。
而DZ论坛使用的是UUB格式,如:[p]正文[/p],所以在发布时要做一个自动转换。
下面就是设置这个自动转换功能。
如果你的文章发布的DZ门户,就不需要转换为UBB.1、打开发布模块配置:2、以软件里自带的Discuz!X 2.0论坛为模板进行修改。
我试过了可以正常住Discuz!X 2.5发布文章。
3、设置为:对[标签: 内容]做UBB转换,如下图中的样子:最后,另存为一个新的“发布模块”,起一个新名字,后面要使用。
4、在“内容发布参数”选项卡中修改:[标签: 内容] 的值可以用使用{0} 来替代。
如下图:黄色框内的[标签: 内容]替换成{0},如下图第一部分工作就完成了。
二、使用Web在线发布模块前面我新建了一个新的Web在线发布模块,下面就是使用它。
第一步:新一个“发布”,操作如下图:注意:请到论坛的后台修改设置,要求登录时不需要输入验证码,才能登录成功,才能测试成功,记得以后要改回来啊。
最后保存时要起个新名字。
三、准备采集这里以火车自带的采集演示来说明。
鼠标右击“腾讯新闻”—“编辑任务”,打开如下窗口。
如下图设置,使用前一步建立的“发布模块”,可以把采集到的内容发布到论坛的某个栏目中。
火车头采集教程火车头采集基本流程:系统设置→新建站点→新建任务→采集网址→采集内容→发布内容→抓数据。
1.新建站点:据你自己的需求为任务建立统一的站点,以方便管理。
点击菜单上:站点→新建站点打开如下图:可以填写站点名,站点地址,网址深度(0,代表根据地址直接采内容。
1,代表根据地址采内容地址,然后根据内容地址采内容。
2,代表根据地址采列表地址,然后根据列表地址采内容地址,再根据内容地址采内容。
),站点描述。
2.新建任务:任务是采集器采集数据时的基本工作单元,它一定是建立在站点中的。
采集器通过运行任务来采集发布数据。
任务工作的步骤总体可以分为三步:采网址,采内容,发内容。
一个任务的运行可以任意选择哪几步。
而采集器又可以同时运行多个任务(默认设置是同时最多运行3个任务)。
选择站点点击右键选择“从该站点新建任务”。
任务的编辑界面如图:采集器的使用最主要的就是对任务的设置。
而采集数据可以分为两步,第一步是:采网址,第二步:采内容。
3.采集网址:采网址,就是从列表页中提取出内容页的地址。
从页面自动分析得到地址连接:以/book/01.45.52_P1.html页面为例。
我们来采集这个网址上的书信息。
这个页面中有很多书信息的链接,要采集每个链接中书内容.首先需要将每个书信息的链接地址抓取到也就是抓取内容页的地址。
先将该列表页地址添加到采集器里。
点击“<<向导添加”后弹出“添加开始采集地址”对话框。
我们选择“单条网址”如图:点击添加把/book/01.45.52_P1.html地址添加到下面框中,点击完成即实现增加列表地址。
如果我们选择“批量/多页”,如图:可用通配符:(*)可以代替页码变化时的地址之间的差异。
数字变化可以设置你要爬取该列表页多少页。
间隔倍数可以数字页码变化的倍数。
你也可以设置字母变化。
设置完之后点击添加按钮把列表地址添加到下框中,点击完成即可完成列表地址设置。
你也可以选择文本导入和正则提取在这里就不一一讲了,因为这二种基本用的很少。
手动填写连接地址规则是将需要的网址用参数来获得并组合成我们需要的网址。
这个好处是处理网址那块有规律的网址很好处理,但要是没规律,和周围的一样的话,就不好处理了。
我们以/book/01.45.52_P1.html为例. 看图里的设置:这样设置就可以获得内容页网址了,这个网址是从摘要那块获得的,那一块的代码都是一个样式,所以可以。
你看上图的话,会发现在参数那里有个缩略图,因为有的文章是将缩略图放在列表里的。
现在我们举个例子。
看这个/dz/,这个是电影的,有小图的,我们看一下怎么获得这个图片。
注意,这里是同时获得网址和缩略图的。
这样设置就可以获得真实网址了,这个网址是从摘要那块获得的,那一块的代码都是一个样式,所以可以。
你看上图的话,会发现在参数那里有个缩略图,因为有的文章是将缩略图放在列表里的。
现在我们举个例子。
看这个/dz/,这个是电影的,有小图的,我们看一下怎么获得这个图片。
注意,这里是同时获得网址和缩略图的。
在脚本规则里输入 [缩略图] 下边即出现无缩略图的提取内容中的第一张选项,将该项选中即可,再将[缩略图] 这几个字符去掉。
如果您需要下载该图片,请选中将缩略图下载到本地。
如果您不使用手动链接地址规则获取网址,将启用自定义格式得到地址选项去掉即可。
注意事项:该功能只提取内容标签中的图片,所以请确保您要提取的图片在内容标签中。
同时。
如果内容标签中选了下载图片,则提取的图片也是下载到本地的图片地址。
因为网址和缩略图那块的样子就是下边的,是有规律的,所以可以获得网址如果我们遇到那些用脚本做栏目列表时怎么办呢?用自动识别是不行的了。
这时,该使用手动设置链接格式这个功能起作用了,这也是针对脚本类网址最好的解决办法。
下边我们以腾讯Flash频道_作品列表为例来讲一下/classlist/listwork_1000130000_1.shtml你用自动获取网址是得不到什么地址的.我们仔细分析地址:/classlist/listwork_1000130000_1.shtml源码后就会发现,这个是这个样子的网址/cgi-bin/viewwork?id=727749 ,只有最后的数字是不同的,而这数字就包含在脚本里边,我们看一下源码:注意:new Array("727749",后边就有我们要的网址,还有缩略图,我们可以这样写规则:这样就可以了,看一下效果OK了。
4.采集内容:当所有网址抓取完后就可以开始抓取内容。
抓取内容就是采集器请求到内容页后分析内容页的HTML源代码并依据在采集器中的标签规则设置匹配出相应的数据。
在测试到的地址中,任意选择一个子地址,双击选中的地址或者点击“测试该页”按钮。
如图:将会跳转到任务中的“第二步:采集内容规则”如图:在典型页面中会出现刚才选中的网址,这里就是测试采集内容。
左边的标签名下面有:标题,出版社,图片,图片地址共四个标签,可以对标签进行添加、删除和编辑等操作。
每个标签就是采集后得到的一段内容,可以是从页面中截取的内容,也可以是设置的一个固定的值或其他方式得到的值。
现在让我抓取/product.aspx?product_id=9188924&ref=book-02-L地址中的标题,查看该页的HTML源代码。
在源代码中可以找到页面中的问题部分。
如图:可以从网页HTML源代码里得到需要的标题(工程硕士研究生英语基础教程(学生用书))。
复制页面HTML中“<span class="black000"><a name="top_b k"></a>”后在文本中向上查找发现查找不到与该段相同的代码,说明此处是该段代码第一次出现的地方。
如图:选择标题标签,点击右边的“编辑标签”按钮打开如下图:复制这段代码到“内容标签编辑框”的“开始字符串处”。
“</span>”是“<span class="black000"><a name="top_b k"></a>”后面第一次出现的地方。
复制“</span>”到“结束字符串”处。
如图:如果发现标题中含有“<ca><pre><\pre><\ca>”像这样的HTML代码,可以在标签设置里将这些没用的代码排除。
设置如图:在此对话框中可以设置标签内容必须包含什么和标签内容不得包含什么。
上面的(*)可以代表为任何字符。
在这里还可以设置汉英翻译,简繁体互转:火车采集器可以将抓取的汉字翻译成英语,方便一些朋友翻译用或做国外网站.同时支持将简体和繁体进行转化,方便简繁体用户交流.汉译英,简体转繁体使用很简单,只要在标签内选中即可.如果“使用正则匹配模式”采集数据:正则表达式很强大,利用它我们可以获得一定格式的数据,比如网址,E-mail地址,数字,字母等等.可喜的是,从3.2版开始,火车采集器就支持正则规则的编写了,这给喜欢用正则来实现不同需求的朋友带来福音。
火车采集器里支持两种正则,一个纯正则,一个参数正则。
我们下边分开讲一下:1.纯正则:在标签中用正则表达式采内容的格式是这样:开始代码(?<content>正则表达式)结束代码,其中在开始代码和结束代码中如有需要转义的字符就要用\转义。
比如我们要获取火车论坛的版块,我们从首页获取,正则可以这样写然后就可以获得我们需要的版块名称了。
2.参数正则:这个不算是正则,和网址采集那块的参数使用原理是一样的,可以对采到的内容进行组合。
输入框两边都不得为空,后边的组合结果[参数N] 是按匹配内容的顺序来写的,我们还是以/为例,来获得栏目ID和栏目名称。
测试一下,是可以获得我们需要的结果了。
正则基本就这样,主要是写表达式的问题。
如果您对这有兴趣,可以下载相关一些资料研究一下。
设置完之后点击“确定”按钮后点“测试”按钮得到页面中的数据。
如图:看下面我们怎么样下载图片到本地来:现在让我抓取/product.aspx?product_id=9188924&ref=book-02-L地址中的图片。
查看该页的HTML源代码。
在源代码中可以找到页面中的问题部分。
如图:发现“<div class="book_pic">“是唯一的,复制这段代码到“内容标签编辑框”的“开始字符串处”。
“</div>”是“<divclass="book_pic">”后面第一次出现的地方。
复制“</div>”到“结束字符串”处。
火车采集器的所有版本均支持下载图片。
这里所说的图片是源代码里的有<img标签的图片地址。
所以只要您采集的源代码里有这这样的图片代码,采集器会将其中的图片下载到本地。
如果是一个直接的图片地址,如/logo.gif ,采集器是会做为文件下载。
下载文件是需要收费版本支持。
图片的下载设置如下:1.在内容页标签编辑框中选中下载图片。
2.任意格式文件下载及保存设置收费版本的程序支持任意文件的下载。
具体是使用时选中探测文件并下载即可。
需要注意的是:这个功能可以下载论坛附件或要下载站的文件,比如论坛附件下载地址是d.asp?id=1,那么只要在下载文件地必须包含里写上d.asp就可以下载源码里包含这个字符串链接中的附件了。
注意这个在有些站是需要你登陆后才可以下载。
所以有时下载不了,请注意您是否登陆或是有权限下载那些文件。
还有的情况是你获取的登陆信息不正确,相当于没登陆.也会导致下载不成功。
如果使用单一的地址,比如直接是一个文件的地址,程序会自动去下载并判断文件类型。
如果是多个文件实际地址请用分隔符#||# 相连,程序会分别进行下载.在下载前请做好测试。
具体在规则测试那里可以看到下载结果。
3.设置保存目录:文件的命名:为了防止同一目录下保存太多的文件,采集器支持随机目录保存方式,默认按时间按一定的规则生成目录保存文件。
看图,注意这里的绿色符号都是用特殊含义的,yyyy代表是年,如最后产生的就是2009,MM是月,其它类推,如果你要命名为yyyy,则需要对绿色字符进行转义,即\y\y\y\y,前一个斜杠即可.文件保存地址也一样.可以设置同步(边下内容边下图片),异步(下完内容在下图片)。
设置好图片保存目录后,便可以点击“确定”按钮后点“测试”按钮可以把图片下载到本地来,如图:测试之后得到的图片保存在\Data\TestOnly文件下。
采集保存到你设置的目录下面。
看下图:在上面也可以选择“使用自定义固定格式的数据”具体怎么实现这这里不讲了,因为很少选择它。