/word_tokenizer

使用 ANSJ 对搜狗实验室全网新闻数据进行分词,再用 word2vec 对关键词聚类

Primary LanguageShellApache License 2.0Apache-2.0

Stargazers