Pinned Repositories
2d-AFM-surface-criticality
excelTools
将报表数据转换格式并入库时遇到许多重复性工作,于是用Python写了一些脚本进行自动化处理,并用PySide2做了GUI界面,做成了一个工具合集
get_jobs
利用线程池,协程,异步的方式,爬取各大招聘网站的数据(招聘数据,非简历等个人隐私数据)
job-spider
多线程爬取互联网行业常用招聘网站
NetworkDynamics.jl
Julia package for working with Dynamics on Networks.
recruit
recruit 招聘爬虫+数据分析 1.爬虫: 采用Scrapy 分布式爬虫技术,使用mongodb作为数据存储,爬取的网站Demo为51job,数据我目前爬了有几千条 2.数据处理: 采用pandas对爬取的数据进行清洗和处理 2.数据分析: 采用flask后端获取mongodb数据,前端使用bootstrap3.echarts以及D3的词云图,如果喜欢请star or Fork,预览详见
resume
An elegant \LaTeX\ résumé template. 大陆镜像 https://gods.coding.net/p/resume/git
setup-ipsec-vpn
Scripts to build your own IPsec VPN server, with IPsec/L2TP, Cisco IPsec and IKEv2
Q-o-Q-s's Repositories
Q-o-Q-s/2d-AFM-surface-criticality
Q-o-Q-s/excelTools
将报表数据转换格式并入库时遇到许多重复性工作,于是用Python写了一些脚本进行自动化处理,并用PySide2做了GUI界面,做成了一个工具合集
Q-o-Q-s/get_jobs
利用线程池,协程,异步的方式,爬取各大招聘网站的数据(招聘数据,非简历等个人隐私数据)
Q-o-Q-s/job-spider
多线程爬取互联网行业常用招聘网站
Q-o-Q-s/NetworkDynamics.jl
Julia package for working with Dynamics on Networks.
Q-o-Q-s/recruit
recruit 招聘爬虫+数据分析 1.爬虫: 采用Scrapy 分布式爬虫技术,使用mongodb作为数据存储,爬取的网站Demo为51job,数据我目前爬了有几千条 2.数据处理: 采用pandas对爬取的数据进行清洗和处理 2.数据分析: 采用flask后端获取mongodb数据,前端使用bootstrap3.echarts以及D3的词云图,如果喜欢请star or Fork,预览详见
Q-o-Q-s/resume
An elegant \LaTeX\ résumé template. 大陆镜像 https://gods.coding.net/p/resume/git
Q-o-Q-s/setup-ipsec-vpn
Scripts to build your own IPsec VPN server, with IPsec/L2TP, Cisco IPsec and IKEv2