fangxuanhao's Stars
YCG09/chinese_ocr
CTPN + DenseNet + CTC based end-to-end Chinese OCR implemented using tensorflow and keras
chineseocr/chineseocr
yolo3+ocr
xiaofengShi/CHINESE-OCR
[python3.6] 运用tf实现自然场景文字检测,keras/pytorch实现ctpn+crnn+ctc实现不定长场景文字OCR识别
lemonhu/stock-knowledge-graph
利用网络上公开的数据构建一个小型的证券知识图谱/知识库
MazzaWill/neo4j-python-pandas-py2neo-v3
利用pandas将excel中数据抽取,以三元组形式加载到neo4j数据库中构建相关知识图谱
BlankerL/DXY-COVID-19-Crawler
2019新型冠状病毒疫情实时爬虫及API | COVID-19/2019-nCoV Realtime Infection Crawler and API
speciallurain/CNKI_Patent_SVM
文本分类是指在给定分类体系下 , 根据文本的内容自动确定文本类别的过程。首先我们根据scrapy爬虫根据**知网URL的规律,爬取70多万条2014年公开的发明专利,然后通过数据清洗筛选出了60多万条含标签数据。通过TF-IDF对60多万条本文进行词频提取,依照词频排序提取前3000个词语形成语义词典,然后根据观察设置停用词。然后再用TF-IDF的方式对每个摘要进行词频选取,通过布尔模型,对比语义词典生成文本向量。然后对标签进行数字化转换。取90%的文本为训练集,10%的文本为测试集。用有监督学习的SVM算法对文本进行分类,(人类生活必需品、作业运输、化学冶金、纺织造纸、固定建筑物、机械工程、物理学、电学)分成8类
jeurtr/TimeSeries_Predict
客流量时间序列预测模型
xuman-Amy/preprocessing
数据预处理之缺失值处理,特征选择
heucoder/dimensionality_reduction_alo_codes
特征提取/数据降维:PCA、LDA、MDS、LLE、TSNE等降维算法的python实现
Chauncey2/zhaopin_spider
用scrapy编写的一个可以爬取智联招聘全部职位信息的爬虫
hengchao0248/ccf2016_sougou
ccf2016 sougou final winner solution