-
通过爬虫识别网站页面
-
多线程
-
可控制线程的最大数量
-
可控制爬虫爬取的页面
-
可忽略指定文件扩展名
-
可设置GET、POST方式
-
支持SSL
-
支持代理
-
支持google搜索的站点列表
-
支持bing搜索的站点列表
-
支持扩展插件(动态测试、静态测试、压力测试)
-
多语言支持
-
支持GUI界面
-
目录检查,类似wwwscan,可发现隐藏的目录
-
检查robots.txt文件
转载于:https://blog.51cto.com/biock/1610626