购买IPLC入口:https://iplc.best/

【频道声明】
之前为个人收藏用的频道,5年来收藏了不少东西,开放出来共享;
由于使用自动化工具做转存,没有标注来源出处,请大佬们见谅

联系频道主:@IPLC_BEST_CHATBOT
#GitHub #自托管

▎serge

通过 llama.cpp 与 Alpaca 聊天的 Web 界面

▎特性

- 纯本地化,无需外部 API
- 使用斯坦福大学的 Alpaca 模型,基于 LLaMa
- 纯 CPU 实现,无需显卡支持
- 三种模型分别需要 4GB/12GB/20GB RAM
- 支持 #Docker 快速部署
- 支持 #Linux#WSL 部署使用
- 本地 #API 支持(可集成到其他应用)
- ……

项目地址来源帖子

频道 @dejavuBlog
群组 @dejavuGroup
#GitHub #Rust

▎carbonyl

在终端里运行的 Chromium 浏览器

▎特性

- 在 #macOS #Linux #Windows #WSL #Docker 中运行
- 不需要窗口服务(可以在 SSH 运行)
- 几乎支持所有的 WebAPI: WebGL, WebGPU, 动画, 音视频播放...
- 非常快、支持 60FPS
- ……

项目地址博客说明

频道 @dejavuBlog
群组 @dejavuGroup
 
 
Back to Top