/MediaCrawler-new

小红书笔记 | 评论爬虫、抖音视频 | 评论爬虫、快手视频 | 评论爬虫、B 站视频 | 评论爬虫、微博帖子 | 评论爬虫

Primary LanguagePythonApache License 2.0Apache-2.0

免责声明:

本仓库的所有内容仅供学习和参考之用,禁止用于商业用途。任何人或组织不得将本仓库的内容用于非法用途或侵犯他人合法权益。本仓库所涉及的爬虫技术仅用于学习和研究,不得用于对其他平台进行大规模爬虫或其他非法行为。对于因使用本仓库内容而引起的任何法律责任,本仓库不承担任何责任。使用本仓库的内容即表示您同意本免责声明的所有条款和条件。

仓库描述

小红书爬虫抖音爬虫快手爬虫B站爬虫微博爬虫...。
目前能抓取小红书、抖音、快手、B站、微博的视频、图片、评论、点赞、转发等信息。

原理:利用playwright搭桥,保留登录成功后的上下文浏览器环境,通过执行JS表达式获取一些加密参数 通过使用此方式,免去了复现核心加密JS代码,逆向难度大大降低

功能列表

平台 Cookie 登录 二维码登录 指定创作者主页 关键词搜索 指定视频/帖子 ID 爬取 登录状态缓存 数据保存 IP 代理池 滑块验证码
小红书
抖音
快手
B 站
微博

使用方法

创建并激活 python 虚拟环境

# 进入项目根目录
cd MediaCrawler

# 创建虚拟环境
python -m venv venv

# macos & linux 激活虚拟环境
source venv/bin/activate

# windows 激活虚拟环境
venv\Scripts\activate

安装依赖库

pip3 install -r requirements.txt

安装 playwright浏览器驱动

playwright install

运行爬虫程序

# 默认没有开启评论爬取模式,有需要请到配置文件中指定
# 从配置文件中读取关键词搜索相关的帖子并爬去帖子信息与评论
python main.py --platform xhs --lt qrcode --type search

# 从配置文件中读取指定的帖子ID列表获取指定帖子的信息与评论信息
python main.py --platform xhs --lt qrcode --type detail

# 打开对应APP扫二维码登录
  
# 其他平台爬虫使用示例, 执行下面的命令查看
python main.py --help    

数据保存

  • 支持保存到关系型数据库(Mysql、PgSQL等)
  • 支持保存到csv中(data/目录下)
  • 支持保存到json中(data/目录下)

运行报错常见问题Q&A

➡️➡️➡️ 常见问题

项目代码结构

➡️➡️➡️ 项目代码结构说明

手机号登录说明

➡️➡️➡️ 手机号登录说明

参考

申明

本项目只作为学习用途, 切勿他用. 有任何问题可以进群交流。 二维码会不定期更新,如果过期请先star该repo,过几天再来看下。