OpenAI正在与博通(Broadcom)合作开发定制的AI芯片,此举可能有助于缓解其在快速训练和发布新版ChatGPT时所面临的强大芯片短缺问题。
博通公司在周四的财报电话会议上宣布,已签下第四家主要AI开发商作为客户,并且这位新客户下了一份价值100亿美元的一次性订单,用于采购使用博通芯片的AI服务器机架。消息公布后,博通股价在周五的交易中飙升近11%。据知情人士透露,这位新客户就是OpenAI,《金融时报》此前报道了这一合作。
OpenAI首席执行官Sam Altman几个月来一直表示,GPU的短缺正在拖慢OpenAI发布旗舰模型新版本的进度。
今年2月,Altman在X上写道:GPT-4.5是该公司设计出的最接近“会思考的人”行为的AI模型,但他对其开发该模型过程中的延迟和高昂成本感到遗憾。Altman当时表示,这是一个庞大且昂贵的模型,我们真的很想同时向Plus和Pro用户推出它,但我们的业务发展增长很快,GPU已经用完了。我们下周将增加数万个GPU,然后向Plus用户推出。数十万个GPU也即将到来,而且我敢肯定,我们能装上多少GPU,你们就能用掉多少。
近年来,OpenAI一直严重依赖英伟达生产的所谓“现成”GPU,但随着希望训练日益复杂模型的大型AI公司的需求激增,芯片制造商和数据中心运营商已难以跟上步伐。为解决此问题,一年多来OpenAI一直与博通合作,开发用于模型训练的定制芯片。博通专注于其所谓的XPU,这是一种专为特定应用(例如训练ChatGPT)而设计的半导体。
一位接近OpenAI的人士表示,博通的芯片并非旨在挑战英伟达,而是为了填补OpenAI在硬件需求方面的缺口。今年8月,博通的市值已超过石油巨头沙特阿美(Saudi Aramco),使这家芯片公司成为全球第七大上市公司。
via 匿名
OpenAI的研究人员声称,他们已经攻克了影响大语言模型性能的最大障碍之一:“幻觉”(hallucinations)问题。
当大语言模型生成不准确的信息,并将其作为事实呈现时,就会产生“幻觉”。从OpenAI的GPT-5到Anthropic的Claude,许多热门的的大语言模型都受到这一问题的困扰。
OpenAI在周四发布的一篇文章中公布了其核心发现:大语言模型之所以产生幻觉,是因为它们的训练方法更倾向于奖励“猜测”,而不是“承认不确定性”。
换句话说,大语言模型被告知要“不懂装懂,直到蒙对为止”(fake it till they make it)。研究人员在文章中写道:“幻觉”问题之所以持续存在,与大多数评估的评分方式有关——AI模型被优化成优秀的应试者,在不确定时进行猜测能提高考试成绩。大语言模型基本上一直处于“应试模式”,它们回答问题时,仿佛生活中的一切都是二进制的——非对即错,非黑即白。
在许多方面,它们并未准备好应对现实生活,因为在现实中,不确定性比确定性更常见,而真正的准确性也并非必然。
研究人员表示:人类在学校之外,在艰苦的磨练中学会了表达不确定性的价值。而另一方面,大语言模型主要通过那些惩罚“不确定性”的考试来进行评估。
OpenAI发现,幻觉问题有解决办法,而这与重新设计评估指标有关。
OpenAI表示:根本问题在于大量的评估标准未能与现实目标对齐。必须调整众多主要评估方法,以停止在模型不确定时惩罚其“弃权”行为。
目前广泛使用的、基于准确率的评估方法需要更新,使其评分机制不鼓励猜测。如果主记分牌(main scoreboards)继续奖励侥幸的猜测,模型就会继续学习去猜测。
via 匿名
一个现代化的 Umami 统计数据看板,提供实时的网站流量统计和监控功能。
https://github.com/songtianlun/umami-dashboard
https://github.com/songtianlun/umami-dashboard
Garage 是一种与 S3 兼容的分布式对象存储服务,专为中小规模的自托管而设计。
https://git.deuxfleurs.fr/Deuxfleurs/garage
https://git.deuxfleurs.fr/Deuxfleurs/garage
ShareX/文件上传服务器易于使用、功能丰富且易于设置!
https://github.com/diced/zipline
https://github.com/diced/zipline
claude mcp add --transport http deepwiki https://mcp.deepwiki.com/mcp
claude mcp add --transport http context7 https://mcp.context7.com/mcp基本思路如下:
1. 获取内容或者让 Claude Code 自己调研
2. 让 Claude Code 调用 xiaohongshu-mcp 完成发布
📮投稿 📢频道 💬群聊
Lucida
音乐在线下载服务,支持 Qobuz、Tidal、SoundCloud、Deezer、Amazon Music 和 Yandex Music 等平台的音乐资源,只需输入歌曲名称或链接,即可进行搜索并下载,支持码率选择,最高可下载 Flac 无损音质,免费无广告,无需注册。
测试了一下,支持的歌曲还挺全的,搜不到可以尝试繁体,或者带歌手,只能说一句很牛逼了。
https://lucida.to
频道 @WidgetChannel
Office Viewer
在线文档浏览工具,除了 Word、Excel、PowerPoint、PDF 外,还涵盖 CSV、ZIP 与 RAR 文件和文本对比功能,通过拖拽、点击上传和 URL 即可瞬间查看和对比文档内容,完全本地运行,免费使用,无需注册。
没太多使用场景,没安装 Office 软件倒是可以临时应急一下,只能查看,不能编辑。
https://officeviewer.org
频道 @WidgetChannel
简易语音工具箱
包含多种自动化音频工具,覆盖音频处理、语音识别、语音转录与语音合成等环节,功能可顺序衔接构成完整工作流,支持中、日、英三种语言,免费且开源。
https://github.com/Spr-Aachen/Easy-Voice-Toolkit
频道 @Edgebyte
又一款适用于家庭实验室的Docker Compose管理器
https://github.com/RA341/dockman
https://github.com/RA341/dockman
OpenAI在X上宣布,ChatGPT现已推出分支对话功能,你可以提出其他问题不用担心偏离原来的方向,目前在web端登录的用户可以使用此功能。
via 匿名
阿里巴巴Qwen今日在官网和OpenRouter上线了最新的Qwen-3-Max-Preview模型。根据官网描述,该模型是Qwen系列中最强大的模型。
有关地址如下:
● 官网:Qwen Chat
● OpenRouter
该模型在OpenRouter上的介绍和价格如下:
Qwen3-Max是基于Qwen3系列的更新,与2025年1月版本相比,在推理、指令跟随、多语言支持和长尾知识覆盖方面提供了重大改进。它在数学、编码、逻辑和科学任务中提供更高的准确性,更可靠地遵循中文和英文的复杂指令,减少幻觉,并为开放式问答、写作和对话生成更高质量的响应。
该模型支持超过100种语言,具有更强的翻译和常识推理能力,并针对检索增强生成(RAG)和工具调用进行了优化,尽管其不包括专门的“思考”模式。
● 输入:1.20 美元(现汇率约合 8.6 元人民币)/每百万 tokens
● 输出:6 美元(现汇率约合 42.8 元人民币)/每百万 tokens
via 匿名
智谱于9月1日起推出面向开发者的专属套餐“GLM Coding Plan”,月费区间为20至100元(网友实测发现100元开发包有93亿token),适用于其最新旗舰模型GLM-4.5及GLM-4.5-Air。该套餐首期以Claude Code为主,未来将扩展至更多编程工具。
目前GLM-4.5已接入多款主流编程工具,包括Claude Code、Cline、Gemini CLI等。在前端开发、跨文件修改和全栈构建等场景中表现稳定实用,解决实际问题的能力接近Claude Sonnet 4,并在多项评测中展现国际竞争力。
据官方披露,GLM-4.5在WebDev Arena中并列全球第二,在SWE-bench Verified优于Gemini-2.5-Pro和GPT-4.1,并在BFCL v4基准取得全球第一,综合编码性能接近Claude Sonnet 4,价格仅为后者1/7。
via 匿名