datawhalechina/self-llm

使用langchain接入模型,如何适配with_structured_output

Opened this issue · 0 comments

在某些场景下,ChatOpenAI无法使用,需要基于LLM自定义Model,但是参考项目中接入langchain的模型,缺少了with_structured_output方法,而原项目中存在着这样的方法,导致使用langchain接入模型也无法使用。
参考项目中的LLaMa3接入langchain的方法:
https://github.com/datawhalechina/self-llm/blob/master/models/LLaMA3/02-LLaMA3-8B-Instruct%20langchain%20%E6%8E%A5%E5%85%A5.md