Pinned Repositories
ALBERT_4_Time_Recognition
使用ALBERT预训练模型,用于识别文本中的时间,同时验证模型的预测耗时是否有显著提升。
ALBERT_text_classification
利用ALBERT实现文本二分类,判别是否属于政治上的出访类事件,提升模型训练和预测速度。
bert_doc_binary_classification
文本二分类任务,是否文档是否属于政治上的出访类事件,利用BERT提取特征,模型采用简单的DNN。
ccks_triple_extract
限定领域的三元组抽取的一次尝试,本文将会介绍笔者在2019语言与智能技术竞赛的三元组抽取比赛方面的一次尝试。
embedding_rerank_retrieval
本项目是针对RAG中的Retrieve阶段的召回技术及算法效果所做评估实验。使用主体框架为LlamaIndex.
keras_bert_multi_label_cls
本项目采用Keras和Keras-bert实现文本多标签分类任务,对BERT进行微调。
knowledge_graph_demo
本项目用于展示三元组抽取后形成的知识图谱,包括几本小说的实体关系,以及README.md,介绍这方面的一篇文章。
multi-label-classification-4-event-type
multi-label-classification-4-event-type
people_relation_extract
结合BERT+GRU+ATT模型,对自己收集的人物关系数据进行模型训练,用于人物关系抽取。
spo_extract_platform
本项目是利用深度学习技术来构建知识图谱方向上的一次尝试,作为开放领域的关系抽取,算是笔者的一次创新,目前在这方面的文章和项目都很少。
percent4's Repositories
percent4/ALBERT_text_classification
利用ALBERT实现文本二分类,判别是否属于政治上的出访类事件,提升模型训练和预测速度。
percent4/keras_bert_multi_label_cls
本项目采用Keras和Keras-bert实现文本多标签分类任务,对BERT进行微调。
percent4/keras_bert_sequence_labeling
本项目采用Keras和Keras-bert实现中文序列标注,对BERT进行微调,并在多个命名实体识别数据集上进行测试。
percent4/keras_bert_text_classification
本项目采用Keras和Keras-bert实现文本多分类任务,对BERT进行微调。
percent4/transformers_chinese_text_classification
本项目采用transformers模块,使用bert-base-chinese模型实现文本多分类。
percent4/pytorch_english_mltc
PyTorch使用BERT进行英语多标签文本分类
percent4/huggingface_translation_model
使用HuggingFace翻译模型的一次尝试
percent4/pytorch_transformers_english_ner
本项目采用PyTorch和transformers模块实现英语序列标注,其中对BERT进行微调。
percent4/keras_bert_multiple_choice_MRC
本项目采用BERT等预训练模型实现多项选择型阅读理解任务(Multiple Choice MRC)
percent4/WSD_With_Text_Extraction
抽取式NLP模型(阅读理解模型,MRC)实现词义消歧(WSD)
percent4/alias_find_system
别名发现系统
percent4/tensorflow_serving_examples
利用tensorflow/serving进行单模型、多模型、同一模型多版本的部署,并进行模型预测,并用Prothemus进行服务监控。
percent4/Keras_R_BERT
本项目使用Keras实现R-BERT,在人物关系数据集上进行测试验证。
percent4/Keras_Transformer_Text_Classification
本项目使用Keras实现Transformer模型来进行文本分类(中文、英文均支持)。
percent4/keras_bert_cloze
本项目采用keras-bert加载BERT模型,进行完形填空。
percent4/keras_bert_short_text_match
本项目采用Keras和Keras-bert实现短文本匹配任务。
percent4/tf_hub_english_text_classification
本项目使用tensorflow_hub中的BERT模型,对英语电影评论数据集(IMDB)进行文本二分类。
percent4/keras_roberta_text_classificaiton
Use English Roberta PLM to do text classification(TC) task with GLUE dataset: SST-2.
percent4/docker_image_demo
该项目用于显示如何使用Docker进行镜像打包,用于初学者入门。
percent4/Keras-K-fold-test
本项目以iris.csv和DNN模型为例,演示如何在Keras中使用K-fold交叉验证。
percent4/bert_sougou_qa
本项目利用keras-bert和tokenizers模块,对BERT进行微调,对搜狗问答数据集实现抽取式问答。
percent4/CPM-LM-TF2-DEMO
本项目使用清源预训练模型CPM,并给出一些模型使用的例子。
percent4/Keras_quasi_Mul_BERT
本项目使用Keras实现quasi Mul-BERT,在人物关系数据集上进行测试验证,其中quasi的意思为近似,因为Mul-BERT模型的论文还未发表,更多模型的细节还未知,因此为近似Mul-BERT。
percent4/RoBERTa_and_DCMN_plus_for_RACE
I use RoBERTaMultipleChoiceModel and DCMN+ RoBERTa for RACE dataset.
percent4/roberta_torch_2_tf
本项目用于将HuggingFace提供的Roberta的Torch版本的模型转化为Tensorflow1.X版本的ckpt格式。
percent4/keras_bert_DCMN
使用DCMN模型完成多项选择阅读理解型任务。
percent4/keras_roberta_mcqa_for_race
Use Roberta(English) pretrained model to finish multiple choice question answering task with RACE dataset.
percent4/unittest_example
Python单元测试使用例子
percent4/deep_learning_miscellaneous
some basic knowledge of deep learning and Pretrained Language Model of NLP
percent4/flask_blue_print_demo
Flask blue print demo