```markdown
2025W44 AI大模型领域精选热点 🔥

1. OpenAI
山姆奥特曼最近播客访谈中透漏内部目标:到 2026 年 9 月,要搞出一个“AI 科研实习生”,它得能在几十万块 GPU 上跑起来;到 2028 年 3 月,要搞出一个真正的“自动化 AI 研究员”。


推出安全模型 GPT-OSS-Safeguard-20B 和 GPT-OSS-Safeguard-120B 基于之前GPT-OSS 微调的。支持自定义安全策略(写在 prompt 里面),然后模型会判断是否符合,输出思考过程,然后输出安全等级分类。 原文地址:openai.com/index/introducing-gpt-oss-safeguard/
推出 Aardvark 一款由 GPT-5 驱动的自主安全研究员(agentic security researcher),内部已投入使用。其目标是帮助开发者和安全团队自动化发现与修复软件漏洞。工作原理是监控代码库的提交和变更,识别漏洞及其可能的利用方式,并提出修复方案。Aardvark 不依赖模糊测试或软件成分分析等传统程序分析技术,而是利用 LLM 驱动的推理和工具来理解代码行为并识别漏洞。Aardvark 查找漏洞的方式与人类安全研究人员类似:阅读代码、分析代码、编写和运行测试、使用工具等等。可与 GitHub、Codex 集成 原文地址:openai.com/index/introducing-aardvark/
OpenAI 已完成资本重组,通过设立非营利性基金会控制新的营利性子公司,使微软(持股27%)、基金会(持股26%)及其他方共同持股,并延长微软知识产权权益至2032年,同时重组满足了软银投资条件且与州监管机构就AGI验证及风险缓解等要求达成一致。 原文地址:techcrunch.com/2025/10/28/openai-completes-its-for-profit-recapitalization
Policy更新:ChatGPT 禁止提供专业医疗、法律和财务建议。 原文地址:openai.com/ja-JP/policies/usage-policies/?utm_source=chatgpt.com


2. Kimi
与Qwen3-Next-80B-A3B类似路线,采用 KimiLinear 一种混合线性注意力架构,目标破除“二次方诅咒”


Kimi 团队最新发布 Kimi-Linear-48B-A3B 系列模型,采用混合注意力策略,将轻量级线性注意力与重型全注意力结合,比例为3:1。其创新点在于引入“Delta Attention”机制的改进版本Kimi Delta Attention(KDA)和多头潜在注意力(multi-head latent attention),在保持准确率的同时,实现了75%缓存减少和高达6倍的解码速度提升。 模型地址:huggingface.co/collections/moonshotai/kimi-linear-a3b 论文地址:arxiv.org/pdf/2510.26692
据传 K3 年底发布
同样是破除“二次方”算力限制,DeepSeek-V3.2-Exp 采用Sparse Attention(一种稀疏注意力机制),孰好孰高可参考 《DeepSeek-V3.2-Exp 和 Qwen3-Next 哪个才是未来? - 知乎》 https://www.zhihu.com/question/1956137082197083536


3. MiniMax M2
与Deepseek Kimi Qwen 不同,MiniMax M2 却回归传统全注意力,不失真不省算力


MiniMax M2 230B参数激活参数10B,专为 Agent 和代码而生,仅 Claude Sonnet 8% 价格,2倍速度,限时免费! 原文地址:minimaxi.com/news/minimax-m2 模型地址:huggingface.co/MiniMaxAI/MiniMax-M2
最强 Voice Agent MiniMax Speech 2.6 发布(效果很棒),全面支持 40 种全球广泛使用的语言。
speech-2.6-hd 超低延时(端到端延迟低于250毫秒),归一化升级,更高自然度
speech-2.6-turbo 极速版,更快更优惠,更适用于语音聊天和数字人场景


原文地址:minimaxi.com/news/minimax-speech-26 体验地址:minimaxi.com/audio


4. GTC 2025
Nvidia NVQLink,专为 GPU 与量子处理器(QPU)设计的互联架构,“量子与经典计算融合的里程碑”。目标是打通量子计算与 GPU 加速计算之间的隔阂。
1 过去,量子芯片通常需要通过传统 CPU 或中间控制系统与 GPU 通信,导致数据往返延迟高、误差率大、同步效率低。
2 NVQLink 提供一条高速、低延迟的硬件互联通道,使 GPU 可以直接访问量子处理器的数据通路,实现纳秒级同步与反馈。
3 NVQLink 让两者首次可以在同一台超级计算机中实现实时通信与数据共享,真正构建出量子-经典混合计算架构(Hybrid Quantum-Classical Computing)。


6G信号塔 = 微型 AI 超算 未来每一座 6G 信号塔,都可能成为一台具备自学习能力与算力的“微型 AI 超算”。


1 英伟达宣布投资 10 亿美元入股诺基亚(Nokia),并联合推动 AI 原生 6G 网络 的建设。
2 5G 时代的通信网络仍以“数据传输”为核心,而英伟达与诺基亚希望在 6G 时代彻底改变这一逻辑——让“通信网络本身具备智能”。两家公司计划打造一种全新的网络架构,让基站不仅仅是信号中继,而是可以直接运行 AI 模型、执行推理任务、实时优化信号与能耗的“边缘智能节点”。
3 技术核心:英伟达新推出的 Aerial RAN Computer(ARC) 架构。它是一种面向无线接入网(RAN)的 AI 计算平台,将 GPU、网络处理单元(DPU)与软件堆栈整合在一起。借助 ARC,运营商可以在每一个基站节点上运行 AI 算法,实现以下能力: 1)实时优化信号覆盖与用户体验。 2)动态调度算力,显著降低能耗。 3)直接在边缘节点完成 AI 推理,无需回传至云端。


全球最强 AI 超级计算机 英伟达宣布与 美国能源部(DOE) 和 甲骨文(Oracle) 展开战略合作,联合建设 7 台全球最强 AI 超级计算机。


将部署在美国能源部旗下的多家国家实验室,包括阿贡(Argonne)、橡树岭(Oak Ridge)等,旨在支持科学研究、AI 模型训练、气候模拟、核聚变研究、药物开发等高算力任务。英伟达称,这些系统不仅是科研设施,更是未来“AI 工厂”的原型。 其中两台最具代表性的超级计算机分别是:
Solstice —— 由美国能源部与甲骨文联合建设,配备超过 10 万块 NVIDIA Blackwell GPU,是目前规划中规模最大的 AI 训练平台,目标是实现 2000+ ExaFLOPS(AI 运算模式下)性能。
Equinox —— 同样基于 Blackwell GPU 架构,配备约 1 万块 GPU,计划于 2026 年上半年上线,用于能源科学与国防技术研究。
Introducing gpt-oss-safeguard
 
 
Back to Top