免责声明:
本仓库的所有内容仅供学习和参考之用,禁止用于商业用途。任何人或组织不得将本仓库的内容用于非法用途或侵犯他人合法权益。本仓库所涉及的爬虫技术仅用于学习和研究,不得用于对其他平台进行大规模爬虫或其他非法行为。对于因使用本仓库内容而引起的任何法律责任,本仓库不承担任何责任。使用本仓库的内容即表示您同意本免责声明的所有条款和条件。
小红书爬虫,抖音爬虫, 快手爬虫...。
目前能抓取小红书、抖音、快手的视频、图片、评论、点赞、转发等信息。
原理:利用playwright搭桥,保留登录成功后的上下文浏览器环境,通过执行JS表达式获取一些加密参数 通过使用此方式,免去了复现核心加密JS代码,逆向难度大大降低。
爬虫技术交流群:949715256
欢迎大家贡献代码提交PR
目前爬虫正在用的IP代理:极速HTTP代理, 新用户注册认证最高送12000IP,0元试用
- 小红书登录(二维码、手机号、cookies)
- 小红书Sign请求签名
- 小红书指定关键词爬去
- 小红书指定帖子爬去
- 抖音Sign请求签名
- 抖音登录(二维码、手机号、cookies)
- 抖音滑块(模拟滑动实现,准确率不太OK)
- 抖音指定关键爬取
- 抖音指定帖子爬取
- 快手指定关键词爬取
- 支持登录成功后的上下文浏览器环境保留
- 代理池实现(手机号+IP)
- 并发执行爬虫请求
- 数据保存到CSV中(默认)
- 数据保持到数据库中(可选)
- 快手登录(二维码、手机号)
-
安装依赖库
pip install -r requirements.txt
-
安装playwright浏览器驱动
playwright install
-
是否保存数据到DB中
如果选择开启,则需要配置数据库连接信息,
config/db_config.py
中的IS_SAVED_DATABASED
和RELATION_DB_URL
变量。然后执行以下命令初始化数据库信息,生成相关的数据库表结构:python db.py
-
运行爬虫程序
# 从配置文件中读取关键词搜索相关的帖子并爬去帖子信息与评论 python main.py --platform xhs --lt qrcode --type search # 从配置文件中读取指定的帖子ID列表获取指定帖子的信息与评论信息 python main.py --platform xhs --lt qrcode --type detail # 其他平台爬虫使用示例, 执行下面的命令查看 python3 main.py --help
-
打开对应APP扫二维码登录
-
等待爬虫程序执行完毕,数据会保存到
data/xhs
目录下
# Q: 爬取抖音报错: `execjs._exceptions.ProgramError: SyntaxError: 缺少 ';'`
# A: 该错误为缺少 nodejs 环境这个错误安装 nodejs 环境即可,版本为:`v16.8.0`
# Q: 可以指定关键词爬取吗?
# A: 在config/base_config.py 中 KEYWORDS 参数用于控制需要爬去的关键词
# Q: 可以指定帖子爬去吗?
# A:在config/base_config.py 中 XHS_SPECIFIED_ID_LIST 参数用于控制需要指定爬去的帖子ID列表
# Q: 刚开始能爬取数据,过一段时间就是失效了?
# A:出现这种情况多半是由于你的账号触发了平台风控机制了,❗️❗️请勿大规模对平台进行爬虫,影响平台。
# Q: 如何更换登录账号?
# A:删除项目根目录下的 brower_data/ 文件夹即可
MediaCrawler
├── base
│ ├── base_crawler.py # 项目的抽象类
│ └── proxy_account_pool.py # 账号与IP代理池
├── browser_data # 浏览器数据目录
├── config
│ ├── account_config.py # 账号代理池配置
│ ├── base_config.py # 基础配置
│ └── db_config.py # 数据库配置
├── data # 数据保存目录
├── libs
│ ├── douyin.js # 抖音Sign函数
│ └── stealth.min.js # 去除浏览器自动化特征的JS
├── media_platform
│ ├── douyin # 抖音crawler实现
│ │ ├── client.py # httpx 请求封装
│ │ ├── core.py # 核心实现
│ │ ├── exception.py # 异常处理
│ │ ├── field.py # 字段定义
│ │ └── login.py # 登录实现
│ └── xiaohongshu # 小红书crawler实现
│ ├── client.py # API httpx 请求封装
│ ├── core.py # 核心实现
│ ├── exception.py # 异常处理
│ ├── field.py # 字段定义
│ ├── help.py # 辅助函数
│ └── login.py # 登录实现
├── modles
│ ├── douyin.py # 抖音数据模型
│ └── xiaohongshu.py # 小红书数据模型
├── tools
│ └── utils.py # 工具函数
├── main.py # 程序入口
└── recv_sms_notification.py # 短信转发器的HTTP SERVER接口
- 如果该项目对你有帮助,star一下 ❤️❤️❤️
当在浏览器模拟人为发起手机号登录请求时,使用短信转发软件将验证码发送至爬虫端回填,完成自动登录
准备工作:
- 安卓机1台(IOS没去研究,理论上监控短信也是可行的)
- 安装短信转发软件 参考仓库
- 转发软件中配置WEBHOOK相关的信息,主要分为 消息模板(请查看本项目中的recv_sms_notification.py)、一个能push短信通知的API地址
- push的API地址一般是需要绑定一个域名的(当然也可以是内网的IP地址),我用的是内网穿透方式,会有一个免费的域名绑定到内网的web server,内网穿透工具 ngrok
- 安装redis并设置一个密码 redis安装
- 执行
python recv_sms_notification.py
等待短信转发器发送HTTP通知 - 执行手机号登录的爬虫程序
python main.py --platform xhs --lt phone
备注:
- 小红书这边一个手机号一天只能发10条短信(悠着点),目前在发验证码时还未触发滑块验证,估计多了之后也会有~
- 短信转发软件会不会监控自己手机上其他短信内容?(理论上应该不会,因为短信转发仓库 star还是蛮多的)
- xhs客户端 ReaJason的xhs仓库
- 短信转发 参考仓库
- 内网穿透工具 ngrok