/Spider

新浪微博(Sina weibo),百度搜索结果 爬虫

Primary LanguagePythonMIT LicenseMIT

Spider

新浪微博(Sina weibo),百度搜索结果 爬虫

使用方法:

环境:

python 版本 >=python3.5

mysql 版本 >= 5.5.3

pip 版本应与 python 一样

推荐使用虚拟环境:

cd weibo
chmod u+x env.sh
source env.sh

全局安装(不使用虚拟环境):

pip3 install -r requirements.txt

代码运行流程:

0.若是使用的虚拟环境,每次运行前使用 source env.sh 命令进入虚拟环境

1.首先根据自己的情况修改 conf.yaml ,该文件内有详细说明,关于 uid 和 cookie的获取请见这篇文章

2.然后运行 Create_all.py 创建MySQL表

3.接着运行 sina_spider.py 爬取微博用户资料和动态并保存在数据库中

4.然后分别运行 Data_analysis.pyLDA_Analysis.py 对数据进行处理

5.得到数据处理结果(默认为 weibo.jpg,weibo_wordfrq.html,weibo_dynamic.html,lda.html)

具体说明请见源码。

微博用户信息分析

可以爬取微博用户个人资料以及动态信息。

数据分析:

  • 生成词云
  • 统计词频
  • 统计活跃时间
  • 使用 LDA 构建了微博主题模型
  • 更多功能...

UI:

  •  生成良好的UI数据分析与展示界面
    
    更多功能还在开发中,程序也在不断重构中.... 代码行数++

代码结构

├── baidu_result
│   └── baidu_result.py	#根据关键词爬取百度搜索结果
├── LICENSE
├── README.md
└── weibo
    ├── conf.yaml			#配置文件
    ├── Connect_mysql.py	#连接数据库
    ├── Create_all.py		#创建MySQL表
    ├── data_analysis		
    │   ├── data			
    │   │   └── stop_words.txt	#中文停用词
    │   ├── Data_analysis.py	#根据微博用户动态进行词云和词频分析
    │   ├── HYQiHei-25J.ttf		#用于生成中文词云的字体
    │   └── LDA_Analysis.py		#使用LDA进行微博动态主题建模与分析
    ├── Delete_users.py			#删除不在conf.yaml配置文件中的微博用户及其动态
    ├── env.sh					#该脚本可以使程序运行在虚拟环境中
    ├── __init__.py
    ├── requirements.txt		#项目依赖文件
    └── sina_spider.py			#爬取微博用户资料和动态并保存在数据库中

数据分析示例

词云:

weibo.jpg

词频分析:

weibo_wordfrq.gif

微博动态时间统计:

weibo_dynamic.gif

微博主题分析(LDA):

lda.gif