DeepSeek-Prover-V2 通过利用大型语言模型 DeepSeek-V3 进行子目标分解和生成形式化草图,结合递归式证明解决、创新的冷启动数据合成及强化学习策略,显著提升了 Lean 4 形式化定理证明的能力,达到了新的 SOTA 水平,并有效缩小了非形式化与形式化数学推理之间的差距。https://mapp.api.weibo.cn/fx/49d7a0b3c9256b7b608ffe3a460d7bfa.html
IBM 刚发布了 granite-4.0-tiny-7B-A1B-preview 使用了 Mamba-2 / Transformer 架构。每个 Transformer 块有 9 个 Mamba 块。基本上,Mamba 块有效地捕捉全局上下文,并将其传递给注意力层,以进行更细致的局部上下文解析。

从 MMLU 分数上看感觉不错(MMLU专注日常任务,比如识别门牌号啥的),IBM也 ​​​https://mapp.api.weibo.cn/fx/29150b6943998525fac67af79515fbe6.html
看到一个如何训练领域特定模型的文章写得非常好,作者使用 GRPO 微调了 qwen2.5-coder-7B, 实现了一个生成日程表的大模型。并且不光有教程,还有代码,模型。感兴趣的同学可以参考这个学习

教程地址:huggingface.co/blog/anakin87/qwen-scheduler-grpo
代码地址: ​​​https://mapp.api.weibo.cn/fx/d8bbc474e4a04f29c66bfa55c4675104.html
小米今天发布了自己的推理开源大模型MiMo,仅用7B就超越了OpenAI 推理模型o1-mini和阿里的推理模型QwQ-32B-Preview,值得一提的是,小米的7B总训练量达到了25T,还是非常恐怖的。7B的大模型非常适合做端侧,不论是应用到小爱还是米家智能生态都非常适合,甚至可以再训练训练丢给小米客服去做产品和服务 ​​​https://mapp.api.weibo.cn/fx/ffa6a8d072aca18be4057bae48e1e25d.html
大模型推理与微调计算器计算器 http://t.cn/A6dHLBF8
计算所需要的资源及预期速度。
#AI创造营# ​​​https://mapp.api.weibo.cn/fx/9550bb9bf28060cfa5973d8c0393774c.html
Gradio 这个更新可以让AI APP瞬间变成mcp服务

pip install "gradio[mcp]"

只需三行 Python 代码就能变成 MCP 服务

Blog:www.gradio.app/guides/building-mcp-server-with-gradio

#ai生活指南##ai创造营##程序员# ​​​https://mapp.api.weibo.cn/fx/cb840b5381740802e522627ff388a683.html
Back to Top