模块名 | 最新版本 |
---|---|
netdiscovery-core | |
netdiscovery-extra | |
netdiscovery-selenium | |
netdiscovery-dsl | |
netdiscovery-coroutines |
NetDiscover 是基于 Vert.x、RxJava 2 等框架实现的爬虫框架。目前还处于早期版本,很多细节正在不断地完善中。
对于 Java 工程,如果使用 gradle 构建,由于默认没有使用 jcenter(),需要在相应 module 的 build.gradle 中配置
repositories {
mavenCentral()
jcenter()
}
netdiscovery-core
implementation 'com.cv4j.netdiscovery:netdiscovery-core:0.3.1'
netdiscovery-extra
implementation 'com.cv4j.netdiscovery:netdiscovery-extra:0.3.1'
netdiscovery-selenium
implementation 'com.cv4j.netdiscovery:netdiscovery-selenium:0.3.1'
netdiscovery-dsl
implementation 'com.cv4j.netdiscovery:netdiscovery-dsl:0.3.1'
netdiscovery-coroutines
implementation 'com.cv4j.netdiscovery:netdiscovery-coroutines:0.3.1'
Spider 可以单独使用,也可以添加到 SpiderEngine 中使用。
Spider 中内置了很多组件。例如 downloader 就已经支持了多种,支持热插拔随时替换或者编写自己的 downloader。
queue、parser、pipeline 也都类似。其中,多个 pipeline 会按照顺序执行。
在调试的时候,可以使用 ConsolePipeline 或者 DebugPipeline
DebugPipeline打印的日志效果如下:
SpiderEngine 可以管理引擎中的爬虫,包括爬虫的生命周期。
http://localhost:{port}/netdiscovery/spider/{spiderName}
类型:GET
http://localhost:{port}/netdiscovery/spiders/
类型:GET
http://localhost:{port}/netdiscovery/spider/{spiderName}/status
类型:POST
参数说明:
{
"status":2 //让爬虫暂停
}
status | 作用 |
---|---|
2 | 让爬虫暂停 |
3 | 让爬虫从暂停中恢复 |
4 | 让爬虫停止 |
使用 DSL 来创建一个爬虫并运行:
val spider = spider {
name = "tony"
urls = listOf("http://www.163.com/","https://www.baidu.com/")
pipelines = setOf(ConsolePipeline())
}
spider.run()
它等价于下面的java代码
Spider.create().name("tony1")
.url("http://www.163.com/", "https://www.baidu.com/")
.pipeline(new ConsolePipeline())
.run();
还可以使用 DSL 来创建 SpiderEngine:
val spiderEngine = spiderEngine {
port = 7070
addSpider {
name = "tony1"
}
addSpider {
name = "tony2"
urls = listOf("https://www.baidu.com")
}
}
val spider = spiderEngine.getSpider("tony1")
spider.repeatRequest(10000,"https://github.com/fengzhizi715")
.initialDelay(10000)
spiderEngine.runWithRepeat()
- user-agent-list:抓取常用浏览器的user agent
- 在“Java与Android技术栈”公众号回复数字货币的关键字,获取最新的价格
- 增强 HtmlUnit 模块
- 整合cv4j以及 Tesseract,实现 OCR 识别的功能
- 从五个纬度控制爬取速度(Pipeline、Request、Domain、IP、Download_Delay),后期可支持交叉
- 增加可开启的 http 缓存配置
- 在同一个 Spider 里的链式爬取,默认附带上 Cookies 或者其他 Header 信息
- 在 Pipeline 或者 ResultItem 里可向爬取队列里继续补充爬取任务
Wechat:fengzhizi715
Java与Android技术栈:每周更新推送原创技术文章,欢迎扫描下方的公众号二维码并关注,期待与您的共同成长和进步。
Copyright (C) 2017 - present, Tony Shen.
Licensed under the Apache License, Version 2.0 (the "License");
you may not use this file except in compliance with the License.
You may obtain a copy of the License at
http://www.apache.org/licenses/LICENSE-2.0
Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License.