今日,支付宝正式上线“支付宝AI收”,帮助商家和个人开发者通过OpenClaw(俗称“龙虾”)这类AI Agent提供商业化服务,实现按调用即时收款。值得一提的是,这是继推出“AI付”之后,支付宝在智能体支付领域的进一步布局。
具体举例来说,当用户安装某Skill后,对“龙虾”说,“帮我整理最新AI行业的分析报告”,“龙虾”向服务端发起资源请求、询价,并为用户反馈“需支付0.02元才能获取结果”,用户下载安装“支付宝AI付”Skill后授权并完成支付,即可获取资源服务。
该产品已在支付宝官网A2A交易专区上架(https://aipay.alipay.com/),接入流程也压缩至三步:入驻签约、创建应用、安装SDK,即可实现每次被AI Agent调用时触发询价、结算。
值得一提的是,截至12月31日,个人开发者使用还可享受0费率。
此外,已使用支付宝收单的商家可直接将其服务Skill接入“龙虾”等AI Agent,在用户发出指令、下单购买后自动完成收款,无需重新搭建收单工具
OpenClaw 已将 DeepSeek 最新的 V4 Flash 设为其热门 AI 代理的默认模型。
在周日的更新中,OpenClaw 表示已将目录扩展至包含 DeepSeek 的 V4 Flash 和旗舰 V4 Pro,并把 Google Meet 等功能整合进其代理。同时,OpenClaw 优化了 DeepSeek V4 模型在执行多步骤任务时保持一致性的能力。
其中 V4 Pro 拥有 1.6 万亿参数,成为该公司有史以来参数量最大的模型,而较小的 V4 Flash 模型则有 2840 亿参数。
DeepSeek 周五表示,其 V4 模型已为主流代理工具优化,包括 Anthropic 的 Claude Code、OpenClaw 以及腾讯的 CodeBuddy。
https://api-docs.deepseek.com/zh-cn/quick_start/pricing
彻底终结AI“御三家”时代,与OpenAI的“两强对垒”格局落定。
Google将向Anthropic公司投资最高400亿美元,进一步深化这两家公司之间的合作关系。双方在人工智能竞赛中既是伙伴,又是对手。
Anthropic周五表示,Google承诺以3800亿美元的最新估值即刻投入100亿美元现金。Google将在Anthropic达成业绩里程碑后再追加投资300亿美元,同时大力扩充Anthropic的算力规模。
Anthropic是Google芯片和云服务的重要客户,而Google正大力拓展这些业务,以弥补其核心收入来源——搜索广告业务增长趋于成熟的不足。
Google Cloud将在未来五年内为Anthropic提供5吉瓦的算力,从2027年开始陆续上线,后续还可能追加数吉瓦。此次协议是本月早些时候Anthropic、Google与博通公司签署合作协议的进一步扩展。
Google 的TPU是英伟达芯片最具竞争力的替代方案之一,在这个对算力需求极为庞大的行业中,TPU对Anthropic及其他AI开发者而言是稀缺而宝贵的资源。
V4-Pro在Agent能力、世界知识和推理性能上达到开源领先水平,可比肩顶级闭源模型;V4-Flash参数更小,速度更快、成本更低。
DeepSeek-V4分为Pro与Flash两个版本,均支持百万(1M)token超长上下文,两个版本均大幅降低了对计算和显存的需求。
API服务同步上线,开发者将model参数修改为deepseek-v4-pro或deepseek-v4-flash即可调用,接口兼容OpenAI ChatCompletions与Anthropic两套标准。
DeepSeek同时披露,受限于高端算力供给,Pro版本当前服务吞吐十分有限,预计下半年随华为昇腾950超节点批量上市后,Pro版本价格将大幅下调。
值得注意的是,昇腾CANN将在今晚7点直播DeepSeek V4在昇腾平台的首发。
GPT-5.5 今天已在 ChatGPT 和 Codex 上向 Plus、Pro、Business 与Enterprise用户开放推出。
我们还在 ChatGPT 中向 Pro、Business 和 Enterprise 用户提供了 GPT-5.5 Pro。
一种面向实际工作的全新智能类型,为智能代理赋能——能理解复杂目标、使用工具、核验结果,并把更多任务彻底完成。它代表着完成计算机工作的全新方式。
GPT-5.5 在编写和调试代码、在线研究、分析数据、创建文档和电子表格、操作软件以及在工具间切换直到任务完成方面表现出色。
在真实应用场景中,GPT-5.5 的每token延迟与 GPT-5.4 相当,但在我们所做的几乎所有评测中都表现更优。
在完成相同 Codex 任务时,它使用的 token 明显更少,因此不仅更高效,表现也更出色。
在 ChatGPT 中的全栈推理改进让模型在更快的速度下具备更强的能力。
▎OpenAI 推出 GPT‑5.5,迄今为止最强的代理编码模型
OpenAI 于 2026 年 4 月 23 日正式发布 GPT-5.5,并将其定位为“面向真实工作的新一类智能”。官方表示,GPT-5.5 在理解复杂任务意图、跨工具持续执行、检查结果以及完成多步骤工作方面更强,重点能力覆盖写代码、在线研究、数据分析、生成文档与表格、操作软件等场景。
在编程能力方面,OpenAI 给出的数据称,GPT-5.5 在 Terminal-Bench 2.0 上达到 82.7%,在 SWE-Bench Pro 上达到 58.6%,并在其内部用于长周期编程任务评估的 Expert-SWE 上继续领先 GPT-5.4。官方认为,这意味着它在复杂命令行流程、真实 GitHub issue 修复、跨大规模代码库保持上下文、处理模糊故障和调用工具验证假设等方面更强。
在知识工作场景中,OpenAI 表示 GPT-5.5 在 Codex 里生成文档、表格和幻灯片的表现优于 GPT-5.4。公司内部团队已将其用于演讲请求分析、税务材料审阅和业务周报自动化等任务。官方还称,目前 OpenAI 内部已有超过 85% 的员工每周使用 Codex,涉及软件工程、财务、传播、市场、数据科学和产品管理等岗位。
GPT-5.5 已开始向 ChatGPT 和 Codex 的 Plus、Pro、Business、Enterprise 用户推出,GPT-5.5 Pro 则面向 Pro、Business、Enterprise 用户开放。OpenAI 同时表示,API 部署需要额外安全措施,正在与合作伙伴推进,GPT-5.5 和 GPT-5.5 Pro “很快”也会进入 API。
频道 @AppDoDo 官推 APPDOTG
在 Cloud Next 2026大会上,Google推出了“Workspace Intelligence”(工作区智能),旨在为每个应用提供“高度准确、个性化的上下文”。
该系统“理解复杂的语义关系”,涵盖 Gmail、Docs 及其他 Workspace 应用中的数据、你正在进行的项目、协作者以及其他公司特定的信息。Workspace Intelligence 利用 Google 的搜索能力和先进的 Gemini 推理来实现
• 信息收集:Workspace Intelligence 负责繁重的工作,为你收集正确的信息。它打破上下文壁垒,确保你在需要采取行动的瞬间就拥有所需的一切。
• 情境感知:借助高级的 Gemini 推理能力,Workspace Intelligence 能知道此刻对你最重要的是什么——确保你永远不会错过任何待办事项。
• 真正的个性化:通过理解你过去的工作和沟通模式,Workspace Intelligence 学会你的独特工作风格、语气和格式偏好,确保每一份输出都听起来像真正的你。
通过利用贯穿会议记录、电子邮件、文件等数字工作流的深层语义上下文,它创建了一个以你独特背景为基础的智能层,能够从根本上改变你的工作方式。
使用场景
你可以在Google Chat中向 Gemini 提问可以完成你交代的复杂任务,包括生成文档和幻灯片、根据描述搜索文件,以及在考虑所有人日程的情况下找出合适的会议时间。它还可以创建每日简报并与第三方工具集成,如 Asana、Jira 和 Salesforce。
在 Google Docs中,Gemini 可以使用 Workspace Intelligence 根据“你的业务数据”创建信息图。它可以同时编辑多张图片,“以在你的文档中创建视觉一致性”。另一项功能可以“对文档中的评论进行分类和回复,甚至根据评论反馈编辑你的文档”。
在 Google Slides 中,Gemini 利用 Workspace Intelligence 提供上下文信息,并严格遵循“贵公司的模板和视觉风格”,一次性生成幻灯片。在 Google Sheets 中,它用于以对话方式创建和编辑电子表格。
Workspace Intelligence 可从网络上检索您的相关电子邮件、聊天记录、文件和信息,将您的想法转化为专业格式的草稿,完美地模仿您的声音、品牌、风格和公司模板。
Google还发布了第八代TPU(张量处理单元)。今年的一个亮点是推出了“两种专为训练和推理设计的不同架构”。
TPU 8t(图左侧)用于训练,目标是将前沿模型的开发周期从几个月缩短到几周。与上一代相比,它在性价比上提高了 2.8 倍。其主要特性包括:
• 大规模扩展:单个 TPU 8t superpod 现在可扩展至 9,600 块芯片,配备 2 PB 共享高带宽内存,且芯片间带宽是上一代的两倍。该架构可提供 121 ExaFlops 的计算能力,让最复杂的模型能够使用一个巨大的统一内存池。
• 最大化利用率:通过将存储访问速度提升 10 倍,并使用 TPUDirect 将数据直接传入 TPU,TPU 8t 可确保端到端系统得到充分利用。
• 近乎线性扩展:借助我们新的 Virgo 网络、JAX 和 Pathways 软件,TPU 8t 能在单个逻辑集群内实现对多达一百万块芯片的近乎线性扩展。
TPU 8i(图右侧)用于推理或运行模型。它的每美元性能比之前提升了 80%,Google称这意味着公司可以“用相同的成本服务几乎两倍的客户量。”
• 打破“内存瓶颈”:为避免处理器闲置,TPU 8i 将 288 GB 高带宽内存与 384 MB 片上 SRAM 配合使用——比上一代增加了 3 倍——可以把模型的活跃工作集完全保存在芯片上。
• Axion 驱动的高效能:我们把每台服务器上的物理 CPU 主机数量翻了一番,采用了我们定制的基于 Arm 的 Axion 处理器。为实现隔离并提升性能,我们采用了非统一内存架构(NUMA),并对整个平台进行了全面优化。
• 针对现代的混合专家(MoE)模型,我们把互连(ICI)带宽提升到 19.2 Tb/s。新的 Boardfly 架构将最大网络直径缩小了一半以上,保证整套系统作为一个统一且低延迟的整体运行。
• 消除卡顿:我们的新型片上“集合加速引擎”(CAE)负责处理全局操作,可将片上延迟最多降低 5 倍,从而显著减少卡顿。
具备“思考”的图像功能已向 ChatGPT Plus、Pro 和 Business 用户开放(企业版即将推出),底层模型 gpt-image-2 已在 API 中可用。
ChatGPT Images 2.0是OpenAI首个具备“思考”能力的图像模型。无需参考图、仅凭简短提示词,即可生成以假乱真的TikTok截图、论文海报、商品广告。
Thinking能力的加入,使得模型可以处理更复杂的任务,在准确性、时效性、一致性和视觉连贯性上有更加强大的表现。
在API中,ChatGPT Images 2.0最高支持生成2K分辨率的图像。
它还具备更强的多语言理解能力、支持最宽3:1、最窄1:3的图片比例、一次提示最多可生成8个输出,并且图中的角色和物体能保持连续性。
ChatGPT Images 2.0 的知识库已更新至 2025 年 12 月,具备能够端到端完成各类复杂任务的智能——无论是撰写文案、进行分析,还是进行设计构图,都能胜任并交付专业成果。
在大模型竞技场上,ChatGPT Images 2.0已登顶第一,并且在文本到图像任务中,断层领先第二名Nano Banana 2 240分。
官方简介页面也是简单明了,全是炫技图,哈哈!
Images 2.0 除了默认的 Instant 模式,最大亮点便是的突破在于引入了 Thinking 模式(仅付费用户可用)
生成的图片也不再有 AI 塑料感,可生成包豪斯风格海报、现代主义排版、Art Deco 书签、电影级自然人像、复古法国新浪潮海报等更具审美价值的图片
📮投稿 📢频道 💬吹水 🌐网站
▎GPT-Image-2 横扫 Image Arena 榜单,OpenAI 拿下图像生成三项第一
Arena 官方账号公布,OpenAI 的 GPT-Image-2 已登顶全部 Image Arena 图像榜单,在文生图、单图编辑和多图编辑三项评测中全部拿到第一。
其中,文生图分项得分 1512,领先第二名 242 分;单图编辑得分 1513,领先第二名 125 分;多图编辑得分 1464,领先第二名 90 分。Arena 将这次表现称为目前为止罕见的大幅领先。
Arena 还表示,没有其他模型曾以这么大的优势统治 Image Arena。
OpenAI 社区同日发布的介绍帖也引用了这一成绩,称 GPT-Image-2 在发布后数小时内就拿下全部 Image Arena 榜单第一,并强调文生图 242 分的领先幅度刷新了该竞技场的纪录。
目前GPT-Image-2 模型已经全量推送,免费和付费用户均可以使用该模型。频道主测试后发现该模型对中文支持非常优秀,推荐大家尝试。
频道 @AppDoDo 官推 APPDOTG
Huashu Design - 一个专为 Claude Code / Cursor / Codex 等 AI 编码代理设计的 HTML 原生设计 Skill
开发者(小猫补光灯作者)声称逆向了「Claude Design」,并做成了一个 Skill。
这是一个内置了 20 条设计哲学 + 5 维专家评审 + 品牌资产协议 + 动效引擎的完整设计工作流。
看效果倒是非常不错,所以推荐之。实际体验不知道(暂时没token了),毕竟自媒体很多时候是噱头大于实际价值的。
📮投稿 📢频道 💬吹水 🌐网站
免费可用 GLM、Nemotron(NVIDIA 自家)、Kimi、Meta Llama、DeepSeek、Mistral、Gemma、Qwen、MiniMax M2.5 等大模型
注册登录之后直接生成就行了,OpenCode 上用选择 Nvidia 提供商即可。API Keys 限制每分钟 40 次调用,速度尚可。
实测新西兰 One 卡是可以接到验证码的,GV 包不行,+86未测试。
📮投稿 📢频道 💬吹水 🌐网站
不同于传统的语言 App 如 多邻国,Little Language Lessons(LLL) 强调小块化、个性化和贴近真实生活的练习,让语言学习更有趣、更实用、更个性化。
➡️ Tiny Lesson(小课):选择目标语言,然后输入一个具体场景或主题(如在日本打车),LLL 会生成一套包括相关词汇、实用短语等的课程。➡️ Slang Hang(俚语对话):选择目标语言和方言/地区,LLL 会生成两个母语者之间的真实对话,教你地道的表达、习语、俚语和口语用法。➡️ Word Cam(单词相机):拍一张照片,AI 会识别照片内容,并教你如何用目标语言描述看到的物品、场景和相关表达。
📮投稿 📢频道 💬吹水 🌐网站
用户可以将常用的 AI 提示保存为“Skills”,并在不同网页上直接调用,无需每次重复输入。
Gemini 已经可以让用户对网页提问、总结页面内容或完成各种操作。Skills(技能)则更进一步,让用户把常用的 AI 提示保存为可重复使用的工作流,只需点击一次就能调用。
例如,Google表示,如果用户在浏览食谱网站时常常让 Gemini 提供素食替代方案,现在可以将该提示保存下来,并在其他网页上重复使用。
要使用此功能,需在聊天记录中将 AI 提示保存为“Skill”。后续在 Chrome 的 Gemini 中,只需输入斜杠 (/) 或点击加号 (+) 按钮即可调用该技能。该技能会在当前打开的网页上运行,并同时作用于你选中的其他标签页。
Google表示,这些Skills可以随时进行编辑。同时还推出了一个面向常见任务和工作流程的现成技能库,供你直接使用。