响应符尧博士的号召,危机存亡之秋,为避免技术断代,为将几千年历史的中文之美传承给AI。
中文互联网上最古老最神秘(没有之一)的里屋社区于2023.1.1庄重宣布:
在英明神武的里屋管子带领下,决心发挥社区所长(哪都长),帮助开源社区长期更新一份最大的中文互联网语料集
MNBVC数据集不但包括主流文化,也包括各个小众文化甚至火星文的数据。MNBVC数据集包括新闻、作文、小说、书籍、杂志、论文、台词、帖子、wiki、古诗、歌词、商品介绍、笑话、糗事、聊天记录等一切形式的纯文本中文数据。数据均来源于互联网收集。
目前总数据量14243GB,目标是达到chatGPT的40T数据,目前进度35.6%。
压缩包密码为253874
压缩包内中文语料均清洗为txt和json(包括jsonl)格式
压缩包根目录的links.txt里有每个子文件夹数据来源的url
每个子文件夹内有一张png格式的图片,是数据来源的网页截图
收录的数据将去掉大于等于8位的数字串进行脱敏
压缩包内数据只做了粗加工,例如html&xml转txt、csv&tsv转json等
我们没有能力对数据来源进行版权审核。虽然本数据集包括了数据来源信息,但为了长而持久的提供数据集的更新和下载,为了尽量避免版权争议,本数据集不提供压缩包内数据的索引和分类。并恳请大家克制住自己的分享欲,不要讨论压缩包的索引及所包含具体内容的信息。请大家更多的关注大数据量语料本身的应用,拜托大家低调的使用数据。
清洗完成的分类数据将陆续放到:https://huggingface.co/datasets/liwu/MNBVC
一人行快,众人行远(摇人加速 发送邮件 MNBVC@253874.net)
各个小组长反映,数据清洗的苦力代码工作比较多,技术落地有点慢,希望有大量时间的同学来帮忙,会用python就行,有人手把手指导。请来帮忙的同学先阅读项目的三条红线。
- OCR转码小组(被GPT4逼成了包含文字-图片的多模态语料组,增加编制),目前5人,缺5人(需有CV、NLP算法背景,想用nlp辅助ocr转码,有业内此领域顶尖大佬带队指导)
- 问答语料小组,目前3人,缺4人(目前全是写python代码对齐问答项并人肉检查的苦力活,后面想利用算法模型做自动对齐)
- 语料增强小组,目前3人,缺2人(想利用nlp补全缺字的语料,并进行文本质量检测等)
- 代码语料小组和平行语料小组还缺几个打杂(后面由组长来决定到底干嘛)
- 待建古文研究小组(研究地方志等古籍的转码,语料很多,难度很大)
- 待建测试组(请测试同学加入,帮助我们提升数据质量)
⭐️ 即使没空帮助项目做开发,也可以通过参加 (语料元气弹) 项目,随手上传语料文档,来参与MNBVC语料集的建设。
为处理大规模的中文语料,MNBVC项目组的同学在现有开源软件基础上做了优化,提供了更高效的版本:
更快速且准确的中文编码检测工具:charset_mnbvc
将txt批量转成jsonl并挑出段落重复度高的文件:deduplication_mnbvc
从多层目录中按关键词采样一定数量的文件并保留目录结构:scan_copy_files_mnbvc
现有各个开源代码语料集都有很严重的人为过滤现象,这让追赶chatGPT变得更为困难。为避免重复劳动,提供经过MNBVC大规模验证后的代码仓库爬虫代码。
- 爬取代码仓库meta信息:publicRepos_mnbvc
- 爬取代码仓库最新版本代码:github_downloader_mnbvc
- 将代码转为语料:githubcode_extractor_mnbvc
- 爬取commit记录:待提供
wikihow清洗代码:WikiHowQAExtractor-mnbvc
**外交部发言清洗代码:QA_with_reporters_from_the_Ministry_of_Foreign_Affair_mnbvc
各类数学题清洗代码:Math_mnbvc
1.通过p2p微力同步全部压缩包并接收更新
建议关闭tcp穿透、关闭udp传输的微力设置。如不关闭,微力有可能堵塞路由器(同时也许传输速度更快)
微力密钥: B4MVPVJTK3DOOAOPVLJ3E7TA7RWW4J2ZEAXJRMRSRHSBPDB7OAFHUQ
微力直达链接
2.通过百度网盘下载:每个压缩包的百度网盘下载链接