#### DISCO(论文:DISCO: Distilling Counterfactuals with Large Language Models) 引入了一种基于 LLM 的全自动反事实知识蒸馏方法。它通过工程化的提示使用 LLM 生成短语扰动,然后通过特定于任务的教师模型过滤这些扰动,以提取高质量的反事实数据。 来源:洛桑联邦理工学院自然语言处理实验室、艾伦人工智能研究所 GitHub:https://github.com/eric11eca/disco #### Lion (论文:Lion: Adversarial Distillation of Closed-Source Large Language Model) 利用LLM的适应性强的特点来提高学生模型的表现。它提示LLM识别并生成“hard”指令,然后利用这些指令来增强学生模型的能力。这种方法利用了LLM用途广泛的特性来指导学生模型的学习,以解决复杂的指令和任务。 来源:香港科技大学 GitHub:https://github.com/YJiangcm/Lion 学生模型:LLaMA-7B 教师模型:ChatGPT(GPT-3.5)