来自 X 上一线芯片设计工程师 fin 的观点:
“从芯片设计来看,即便是o3如此强大的AI再发展下去,离自己设计芯片,来取代芯片工程师的职位,仍然很遥远,o3o4o5的进步是10分到50分的事情,而现在的芯片早就进化到堆人力从90分往95分逼近了
当然了,半导体行业广泛采用claude3.7/o3级别的AI,确实也是 https://mapp.api.weibo.cn/fx/730acfd740e41136cd56c82e29de220b.html
“从芯片设计来看,即便是o3如此强大的AI再发展下去,离自己设计芯片,来取代芯片工程师的职位,仍然很遥远,o3o4o5的进步是10分到50分的事情,而现在的芯片早就进化到堆人力从90分往95分逼近了
当然了,半导体行业广泛采用claude3.7/o3级别的AI,确实也是 https://mapp.api.weibo.cn/fx/730acfd740e41136cd56c82e29de220b.html
前天晚上我心血来潮想用 Cursor 开发一款微信小程序,心动不如行动,我就马上开发了,花了半天时间我就开发出来了,整个过程很顺利,很高效,效果也很好。
为什么要开发这样一个小程序呢?我过两天会在教程当中详细说明。
我的整个思路就是:将需求告诉 DeepSeek ,让 DeepSeek 帮我设计原型图。(见 https://mapp.api.weibo.cn/fx/2452d6bcffdf3345e956cad81f5ed547.html
为什么要开发这样一个小程序呢?我过两天会在教程当中详细说明。
我的整个思路就是:将需求告诉 DeepSeek ,让 DeepSeek 帮我设计原型图。(见 https://mapp.api.weibo.cn/fx/2452d6bcffdf3345e956cad81f5ed547.html
Andrej Karpathy在阅读 Claude 的系统提示词后, 认为可以将 system prompt提升到作为和预训练、微调同级别的调教大模型的方法。(Claude 泄露的系统提示词可以在这里看到: github.com/asgeirtj/system_prompts_leaks/blob/main/claude.txt )。
下为全文翻译:
关于大语言模型如何学习和提升能力,我 https://mapp.api.weibo.cn/fx/4e85fd6fd9eb9cf6bf61d9180bb4968e.html
下为全文翻译:
关于大语言模型如何学习和提升能力,我 https://mapp.api.weibo.cn/fx/4e85fd6fd9eb9cf6bf61d9180bb4968e.html
#字节Seed首次开源代码模型##字节Seed开源代码模型夺SOTA#
字节跳动的Seed团队,首次开源了他们的代码大模型——Seed-Coder,参数规模8B,在多个权威基准上击败了Qwen3、DeepSeek-R1,夺得SOTA成绩。
Seed-Coder共发布了三个版本:
- Base:基础模型
- Instruct:强化指令理解,通过监督微调+偏好优 https://mapp.api.weibo.cn/fx/38751cf2799a3f758dda30228ac52a61.html
字节跳动的Seed团队,首次开源了他们的代码大模型——Seed-Coder,参数规模8B,在多个权威基准上击败了Qwen3、DeepSeek-R1,夺得SOTA成绩。
Seed-Coder共发布了三个版本:
- Base:基础模型
- Instruct:强化指令理解,通过监督微调+偏好优 https://mapp.api.weibo.cn/fx/38751cf2799a3f758dda30228ac52a61.html
OpenAI 终于出了个详细的说明,
关于何时使用哪个模型↓
1. GPT-4o -用于日常工作流程中的实时、多模态推理的比较全面的模型。
2. GPT-4.5——更广泛的知识和更好的语气控制——非常适合写作、编码和快速解决问题。
3. o4-mini -快速、经济高效的代码、数学和视觉任务推理。
4. o4-mini-high - 比 https://mapp.api.weibo.cn/fx/5438ce3955e394ff8553e0312c5a7afc.html
关于何时使用哪个模型↓
1. GPT-4o -用于日常工作流程中的实时、多模态推理的比较全面的模型。
2. GPT-4.5——更广泛的知识和更好的语气控制——非常适合写作、编码和快速解决问题。
3. o4-mini -快速、经济高效的代码、数学和视觉任务推理。
4. o4-mini-high - 比 https://mapp.api.weibo.cn/fx/5438ce3955e394ff8553e0312c5a7afc.html
分享一个写prompt的技巧:
1,使用AIStudio 或 Gemini app
2,创建一个新的Chat,选用G2.5P
3,开头的内容是“帮我写个prompt。我希望xxx。要求是yyy”
4,将生成的prompt放入另一chat中执行,得到结果
5,将结果贴回原chat“这是处理结果,你觉得怎样?”,分析问题,补充信息,生成新prompt
6,重复4 https://mapp.api.weibo.cn/fx/1720781355bb4011d5ec0fb1eb3eaafd.html
1,使用AIStudio 或 Gemini app
2,创建一个新的Chat,选用G2.5P
3,开头的内容是“帮我写个prompt。我希望xxx。要求是yyy”
4,将生成的prompt放入另一chat中执行,得到结果
5,将结果贴回原chat“这是处理结果,你觉得怎样?”,分析问题,补充信息,生成新prompt
6,重复4 https://mapp.api.weibo.cn/fx/1720781355bb4011d5ec0fb1eb3eaafd.html
基于刚才那个better qwen3, 写个一个比较完整的。http://t.cn/A6dsIqjG 写了个让qwen3自动判断用reasoning or non-reasoning 来回答问题的script,对于common question能大幅度节省延迟和tokens ,上班写点闲代码,可以躲避开会[二哈][二哈][二哈] https://mapp.api.weibo.cn/fx/9a8818c917bf4506205ee59e25561f35.html
发布了头条文章:《RL+search = Deep research》 http://t.cn/A6gzRKMU https://mapp.api.weibo.cn/fx/e321c4d5a6d4d8b321bb3830b70f42ef.html
赞!ChatGPT的DeepSearch支持github链接了,提出问题后,深度研究代理将阅读并搜索代码库的源代码和 PR,并返回包含引用的详细报告。
点击“深度研究→ GitHub”即可开始使用。
#ai创造营##程序员##ai生活指南# http://t.cn/A6gzEXOV https://mapp.api.weibo.cn/fx/2fbab38f8a1264b4eccd488aea91f8a2.html
点击“深度研究→ GitHub”即可开始使用。
#ai创造营##程序员##ai生活指南# http://t.cn/A6gzEXOV https://mapp.api.weibo.cn/fx/2fbab38f8a1264b4eccd488aea91f8a2.html
喜欢的不那么大众的东西被营销号推荐宗感觉怪怪的
https://fxtwitter.com/tingyun97/status/1920288024274821304?s=46
https://fxtwitter.com/tingyun97/status/1920288024274821304?s=46
前天和超级大鹅 @SUPER_GOOSE0 (who 写过一篇极好的 mtu 文章 https://www.kawabangga.com/posts/4983) 又一次讨论 mtu,我这两天也间歇性做了一些学习🤬
1. 现代 Linux 早就把 MSS 和 GSO 绑定了。不知道大家纸面上学习 mss 的时候是怎么想的,我的古早理解是 tcp socket 发出的 skb 总是小于等于 mss,这在 2.4 的时候确实如此实现,但是在 2.6 引入 GSO 之后 mss 分片被极大推迟,就算 mss 是 1400,一个 skb 依然可以把 4k 的 payload 塞入非线性区 (struct skb_shared_info*)(skb->head+skb->end),然后在“最终时刻”再分。
2. “最终时刻”往往比大家想象中的还要晚。考虑云原神环境里的 pod to pod via vxlan tunnel,设置 pod mtu 需要减去隧道包头已是常识,那么 MSS 分段和 IP 分包会发生在什么时候呢?在我本地 ubuntu 2404 默认情况下,最终时刻发生在在 vxlan 隧道封包之后,处理完 nf POSTROUTING 之后,eth0 dev_xmit 之前,先做 MSS 分段,如果分段成后长度 > eth0 mtu,再做 IP 分包。
3. 因此用 ping -s 1500 / ping -M do -s 1500 做 mtu 连通性测试的意义不明,MSS 分段和 ICMP 分包实现如此不同,ping 的连通性和分包状态无法推断出 tcp 发同样大小 payload 的连通性和分包状态。
这些破细节不能指望任何人通过看书学会,就连那本经典的《TCP/IP详解》也远落后于时代,成书于 1994,十年后的 GSO 才成为 MSS 底层逻辑。“我们需要一本现代的、符合时代精神的《TCP/IP详解》”,我看着超级大鹅的眼睛说。
1. 现代 Linux 早就把 MSS 和 GSO 绑定了。不知道大家纸面上学习 mss 的时候是怎么想的,我的古早理解是 tcp socket 发出的 skb 总是小于等于 mss,这在 2.4 的时候确实如此实现,但是在 2.6 引入 GSO 之后 mss 分片被极大推迟,就算 mss 是 1400,一个 skb 依然可以把 4k 的 payload 塞入非线性区 (struct skb_shared_info*)(skb->head+skb->end),然后在“最终时刻”再分。
2. “最终时刻”往往比大家想象中的还要晚。考虑云原神环境里的 pod to pod via vxlan tunnel,设置 pod mtu 需要减去隧道包头已是常识,那么 MSS 分段和 IP 分包会发生在什么时候呢?在我本地 ubuntu 2404 默认情况下,最终时刻发生在在 vxlan 隧道封包之后,处理完 nf POSTROUTING 之后,eth0 dev_xmit 之前,先做 MSS 分段,如果分段成后长度 > eth0 mtu,再做 IP 分包。
3. 因此用 ping -s 1500 / ping -M do -s 1500 做 mtu 连通性测试的意义不明,MSS 分段和 ICMP 分包实现如此不同,ping 的连通性和分包状态无法推断出 tcp 发同样大小 payload 的连通性和分包状态。
这些破细节不能指望任何人通过看书学会,就连那本经典的《TCP/IP详解》也远落后于时代,成书于 1994,十年后的 GSO 才成为 MSS 底层逻辑。“我们需要一本现代的、符合时代精神的《TCP/IP详解》”,我看着超级大鹅的眼睛说。
AI能做什么?全能翻译官、打杂小秘书、画画、原型、作曲……
📖文员📖
1️⃣英译中http://t.cn/A63F0523
2️⃣处理“PPT视频课程”http://t.cn/A6ghblv1
3️⃣NotebookLM,不只是笔记本http://t.cn/A6ghblvn
4️⃣查找类。根据图片定位http://t.cn/A6dh4qyX ;找来源http://t.cn/A6BLjN9f
🎨作 https://mapp.api.weibo.cn/fx/8d7172e70cd34387e5dbaa7a44d09470.html
📖文员📖
1️⃣英译中http://t.cn/A63F0523
2️⃣处理“PPT视频课程”http://t.cn/A6ghblv1
3️⃣NotebookLM,不只是笔记本http://t.cn/A6ghblvn
4️⃣查找类。根据图片定位http://t.cn/A6dh4qyX ;找来源http://t.cn/A6BLjN9f
🎨作 https://mapp.api.weibo.cn/fx/8d7172e70cd34387e5dbaa7a44d09470.html