圆圆一直在修炼 2013-11-12 17:51 采纳率: 100%
浏览 3100
已采纳

请问为什么我用Nutch爬取不到百度百科和百度文库里面的内容?

经过设置我只能获取到百度百科和百度文库首页的一些页面,可是我想爬取这两个网站内部的页面,请问该如何配置?有没有人有成功的先例?
比如如果想要爬取百度文库里面的页面crawl-urlfilter.txt里面的正则表达式改如何编写?
多谢指教!

  • 写回答

1条回答 默认 最新

  • abcdwxc 2014-09-19 02:33
    关注

    nutch1.2在crawl-urlfilter.txt设置站点,1.2以上的版本要在regex-urlfilter.txt中配置。
    具体是在accept hosts in MY.DOMAIN.NAME下设置要爬取的站点.
    例如:

    accept hosts in MY.DOMAIN.NAME

    +^http://([a-z0-9]*.)*baidu.com/

    在nutch目录下建个urls文件夹,里面建个baidu.txt文件,里面把要爬取的Url放进去。
    http://wenku.baidu.com/
    然后运行 bin/nutch crawl urls/baidu.txt -dir baidu/wenku -threads 4 -depth 2 -topN 30

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

悬赏问题

  • ¥15 streamingtool
  • ¥15 MATLAB图像问题
  • ¥20 树莓派5做人脸情感识别与反馈系统
  • ¥15 selenium 控制 chrome-for-testing 在 Linux 环境下报错 SessionNotCreatedException
  • ¥15 使用pyodbc操作SQL数据库
  • ¥15 MATLAB实现下列
  • ¥30 mininet可视化打不开.mn文件
  • ¥50 C# 全屏打开Edge浏览器
  • ¥80 WEBPACK性能优化
  • ¥30 python拟合回归分析