IT之家整理了北京亦庄机器人马拉松各队伍主要信息。众擎和宇树组了一支队伍啊。
----------------------------------------
天工队(天工 Ultra,身高 180cm,体重 52kg):实测平均时速可达 10km/h,最高奔跑速度已提升至全球领先的 12km/h,且能在斜坡、楼梯、草地、碎石、沙地等多种地形平稳移动, http://m.weibo.cn/status/5156765214706943?
----------------------------------------
天工队(天工 Ultra,身高 180cm,体重 52kg):实测平均时速可达 10km/h,最高奔跑速度已提升至全球领先的 12km/h,且能在斜坡、楼梯、草地、碎石、沙地等多种地形平稳移动, http://m.weibo.cn/status/5156765214706943?
草,微软给自家的开源项目 MarkItDown 搞了个"史诗级"更新(相信大家都能猜得到)——支持MCP了
MarkItDown 是个 python 库,有接近5万star. 这个库可以将微软 office 全家桶文档转换为 markdown 格式。包括 PDF,PowerPoint,Word,Excel,图片,音频,HTML,ZIP(遍历里面的内容),油管网址(直接总 http://m.weibo.cn/status/5157430859664606?
MarkItDown 是个 python 库,有接近5万star. 这个库可以将微软 office 全家桶文档转换为 markdown 格式。包括 PDF,PowerPoint,Word,Excel,图片,音频,HTML,ZIP(遍历里面的内容),油管网址(直接总 http://m.weibo.cn/status/5157430859664606?
来看这个牛逼的视频生成框架——FramePack
最牛逼的地方在于:使用 13B 模型生成 1 分钟视频(60 秒),30fps(1800 帧),最低所需的 GPU 内存为 6GB。(是的,6GB,不是打字错误。笔记本电脑 GPU 也可以。)
官方只提供了windows构建版本,下载后使用 update.bat 进行更新,使用 run.bat 运行。 http://m.weibo.cn/status/5157445967020215?
最牛逼的地方在于:使用 13B 模型生成 1 分钟视频(60 秒),30fps(1800 帧),最低所需的 GPU 内存为 6GB。(是的,6GB,不是打字错误。笔记本电脑 GPU 也可以。)
官方只提供了windows构建版本,下载后使用 update.bat 进行更新,使用 run.bat 运行。 http://m.weibo.cn/status/5157445967020215?
OpenAI的姚顺雨发的长篇博文:人工智能的“下半场”
ysymyth.github.io/The-Second-Half/
本文探讨了AI发展的两个阶段,前半段聚焦于模型训练方法,后半段将转向问题定义和评估。
“我们正处于 AI 的中场休息时间。
几十年来,人工智能主要致力于开发新的训练方法和模型。而且,它确实取得了成功:从 http://m.weibo.cn/status/5157446347655192?
ysymyth.github.io/The-Second-Half/
本文探讨了AI发展的两个阶段,前半段聚焦于模型训练方法,后半段将转向问题定义和评估。
“我们正处于 AI 的中场休息时间。
几十年来,人工智能主要致力于开发新的训练方法和模型。而且,它确实取得了成功:从 http://m.weibo.cn/status/5157446347655192?
这是 cline 的 system prompts,读完它就比较好理解 cline 的具体工作过程和倾向性了。也能看到它如何处理 MCP tools
https://github.com/cline/cline/blob/main/src%2Fcore%2Fprompts%2Fsystem.ts
https://github.com/cline/cline/blob/main/src%2Fcore%2Fprompts%2Fsystem.ts
微软推出 BitNet.cpp 开源大模型推理框架,实现 1-bit 大模型本地部署
大模型(LLM)的应用越来越广泛,但随着模型规模的不断扩张也带来了算力、能耗与部署门槛的持续攀升。如何在保证模型能力的前提下,实现更高效的推理和更低的计算资源消耗?微软开源的 BitNet 推理框架为大模型的量化与本地部署提 http://m.weibo.cn/status/5157448807354077?
大模型(LLM)的应用越来越广泛,但随着模型规模的不断扩张也带来了算力、能耗与部署门槛的持续攀升。如何在保证模型能力的前提下,实现更高效的推理和更低的计算资源消耗?微软开源的 BitNet 推理框架为大模型的量化与本地部署提 http://m.weibo.cn/status/5157448807354077?
Python 3.14 会是一个我心中更进一步的史诗级版本,建议正式版出了就升级。除了 official 支持了类似 JVM agent 类似的 attach 机制外。进程内存布局也对 debug 做了极大的优化。举个例子,之前我们如果用 eBPF+uprobe 或者 read memory 的方式获取栈状态,我们需要手动 cast + 暴力搜索寻找一个 memory address 的起始点。而 Python 3.14 后,官方扩展了 runtime state 的 debug info 同时将地址信息注入了 ELF。那么我们能直接根据 ELF 来计算出相对应的 runtime state 的 entrypoint 。极大的减少了调试的复杂性