//iplc.best 搬运分享
13:57 · Mar 28, 2023 · Tue
#GitHub #自托管
▎serge
通过 llama.cpp 与 Alpaca 聊天的 Web 界面
▎特性
- 纯本地化,无需外部 API
- 使用斯坦福大学的 Alpaca 模型,基于 LLaMa
- 纯 CPU 实现,无需显卡支持
- 三种模型分别需要 4GB/12GB/20GB RAM
- 支持 #Docker 快速部署
- 支持 #Linux 和 #WSL 部署使用
- 本地 #API 支持(可集成到其他应用)
- ……
项目地址
|
来源帖子
频道
@dejavuBlog
群组
@dejavuGroup
Home
Powered by
BroadcastChannel
&
Sepia