增加加了博物馆展品清单数据库及对前端获取展品清单、展品详细的接口,增加了QWenOmni多模态大模型的支 持(主要为了测试),增加了本地部署大模型支持(主要为了测试,在autoDL上),修正了TTS生成和返回前端的逻辑与参数,增加了判断用户问题有没有在知识库中检索到相关片段、如果没有则直接返回并提示未包含
This commit is contained in:
@@ -167,6 +167,40 @@
|
||||
}
|
||||
]
|
||||
},
|
||||
{
|
||||
"name": "Qianwen-Omni",
|
||||
"logo": "",
|
||||
"tags": "LLM,IMAGE2TEXT,MODERATION",
|
||||
"status": "1",
|
||||
"llm": [
|
||||
{
|
||||
"llm_name": "qwen-omni-turbo",
|
||||
"tags": "LLM,CHAT,32K",
|
||||
"max_tokens": 30768,
|
||||
"model_type": "chat"
|
||||
},
|
||||
{
|
||||
"llm_name": "qwen-omni-turbo-latest",
|
||||
"tags": "LLM,CHAT,IMAGE2TEXT",
|
||||
"max_tokens": 30768,
|
||||
"model_type": "image2text"
|
||||
}
|
||||
]
|
||||
},
|
||||
{
|
||||
"name": "LOCAL-LLM",
|
||||
"logo": "",
|
||||
"tags": "chat",
|
||||
"status": "1",
|
||||
"llm": [
|
||||
{
|
||||
"llm_name": "chat",
|
||||
"tags": "LLM,CHAT,32K",
|
||||
"max_tokens": 12768,
|
||||
"model_type": "chat"
|
||||
}
|
||||
]
|
||||
},
|
||||
{
|
||||
"name": "ZHIPU-AI",
|
||||
"logo": "",
|
||||
|
||||
Reference in New Issue
Block a user