posts - 12, comments - 4, trackbacks - 0, articles - 36

Larbin 一种高效的搜索引擎爬虫工具

Posted on 2005-12-07 13:38 inwind 阅读(1040) 评论(0)  编辑 收藏 引用 所属分类: 搜索引擎

http://larbin.sourceforge.net/index-eng.html
这是larbin的主页,感情又是sourceforge上的开源项目啊。
开源就是好,前辈们的代码,经验,可以为后来者铺平道路,同时,开源又是练手的最佳途径。这一段时间太忙了,等空下来,也要去看看sourceforg上面有没有合适的项目,参加参加

1]larbin的简介
larbin是一种开源的网络爬虫/网络蜘蛛,由法国的年轻人 Sébastien Ailleret独立开发。larbin目的是能够跟踪页面的url进行扩展的抓取,最后为搜索引擎提供广泛的数据来源。

Larbin只是一个爬虫,也就是说larbin只抓取网页,至于如何parse的事情则由用户自己完成。另外,如何存储到数据库以及建立索引的事情 larbin也不提供。

latbin最初的设计也是依据设计简单但是高度可配置性的原则,因此我们可以看到,一个简单的larbin的爬虫可以每天获取500万的网页,实在是非常高效。

2] Larbin的性能特征
高效是我对 larbin 的评价。
今年四月份的时候我对larbin的性能做过一个测试,luliang.dhs.org是我自己常用的服务器,CPU 为1G,内存512,其它的性能一般,因为是三年前购置的。

我将我自己的网页 六翼作为入口,运行larbin进行5层内的url的抓取。

当时纪录的一些数据:
Internet IO: 500-700k/per second (我想大约我的网络下载的瓶颈了吧)
CPU top: 5%-15%
disk consume: 1M/s ,基本上一个小时爬 3个G 的网页。差不多20万的页面
url 解析: 200万-300万每小时

3] larbin 的作用
很多人初见 larbin 不知道从哪里下手,那么我来简单介绍一下 larbin 的功能和实际应用。
1. larbin 获取单个、确定网站的所有联结,甚至可以镜像一个网站。
1. larbin 获取单个、确定网站的所有联结,甚至可以镜像一个网站。
2. larbin建立 url 列表群,例如针对所有的网页进行 url retrive后,进行xml的联结的获取。或者是 mp3 。
3. larbin 定制后可以作为搜索引擎的信息的来源(例如可以将抓取下来的网页每2000一组存放在一系列的目录结构里面)。

总归,larbin应当是一个被广大搜索引擎爱好者应当引起注意的一个产品,虽然其功能逐渐被 Nutch 所接受和替代,但是其在爬虫上的优美设计的确值得称道。

Posted at December 24, 2004 02:35 AM by Liang at 02


只有注册用户登录后才能发表评论。
网站导航: 博客园   IT新闻   BlogJava   知识库   博问   管理