#GitHub #自托管

▎serge

通过 llama.cpp 与 Alpaca 聊天的 Web 界面

▎特性

- 纯本地化,无需外部 API
- 使用斯坦福大学的 Alpaca 模型,基于 LLaMa
- 纯 CPU 实现,无需显卡支持
- 三种模型分别需要 4GB/12GB/20GB RAM
- 支持 #Docker 快速部署
- 支持 #Linux 和 #WSL 部署使用
- 本地 #API 支持(可集成到其他应用)
- ……

项目地址来源帖子

频道 @dejavuBlog
群组 @dejavuGroup
 
 
Back to Top