AI能做什么?全能翻译官、打杂小秘书、画画、原型、作曲……
📖文员📖
1️⃣英译中http://t.cn/A63F0523
2️⃣处理“PPT视频课程”http://t.cn/A6ghblv1
3️⃣NotebookLM,不只是笔记本http://t.cn/A6ghblvn
4️⃣查找类。根据图片定位http://t.cn/A6dh4qyX ;找来源http://t.cn/A6BLjN9f
🎨作 https://mapp.api.weibo.cn/fx/8d7172e70cd34387e5dbaa7a44d09470.html
📖文员📖
1️⃣英译中http://t.cn/A63F0523
2️⃣处理“PPT视频课程”http://t.cn/A6ghblv1
3️⃣NotebookLM,不只是笔记本http://t.cn/A6ghblvn
4️⃣查找类。根据图片定位http://t.cn/A6dh4qyX ;找来源http://t.cn/A6BLjN9f
🎨作 https://mapp.api.weibo.cn/fx/8d7172e70cd34387e5dbaa7a44d09470.html
http://t.cn/A6dnrSYx
这是一篇关于使用Ollama的大型语言模型采样参数的全面指南。它详细解释了各种采样参数(如温度、Top P、Min P等)如何影响模型输出。
像 Ollama 中使用的大型语言模型(LLMs)并非确定性生成文本——它们基于模型预测概率,通过概率性采样选择下一个 token。在采样前如何对这些概 https://mapp.api.weibo.cn/fx/fbccf9844fa3be50b15b9c488322c3fe.html
这是一篇关于使用Ollama的大型语言模型采样参数的全面指南。它详细解释了各种采样参数(如温度、Top P、Min P等)如何影响模型输出。
像 Ollama 中使用的大型语言模型(LLMs)并非确定性生成文本——它们基于模型预测概率,通过概率性采样选择下一个 token。在采样前如何对这些概 https://mapp.api.weibo.cn/fx/fbccf9844fa3be50b15b9c488322c3fe.html
RAG 架构实用指南↓ 收藏
1. 数据准备,比如将Google Drive 文件夹中的文档生成嵌入,分成块并将它们作为多维向量存储在 向量数据库(如Pinecone) 中。
2. RAG:当用户提出问题时,将其转换为向量,并从 向量存储(如Pinecone) 中检索具有相似向量的文档块。
3. Adaptive RAG,核心在于根据不同查 https://mapp.api.weibo.cn/fx/5beeec096d182cb729c6e4c0b010ad78.html
1. 数据准备,比如将Google Drive 文件夹中的文档生成嵌入,分成块并将它们作为多维向量存储在 向量数据库(如Pinecone) 中。
2. RAG:当用户提出问题时,将其转换为向量,并从 向量存储(如Pinecone) 中检索具有相似向量的文档块。
3. Adaptive RAG,核心在于根据不同查 https://mapp.api.weibo.cn/fx/5beeec096d182cb729c6e4c0b010ad78.html
来自DeepLearning AI 吴恩达的全新课程《构建生产级AI语音代理》
1. 语音代理结合了语音和推理能力,以实现实时对话。它们已经被用于支持客户服务、改善医疗保健的可访问性、娱乐应用和对话疗法。
2. 本课程将教你构建能够倾听、推理并自然响应的语音代理。你将跟随创建“AI Andrew”头像的架构, https://mapp.api.weibo.cn/fx/5eef028e79a52ac7f23abd4f9fac9266.html
1. 语音代理结合了语音和推理能力,以实现实时对话。它们已经被用于支持客户服务、改善医疗保健的可访问性、娱乐应用和对话疗法。
2. 本课程将教你构建能够倾听、推理并自然响应的语音代理。你将跟随创建“AI Andrew”头像的架构, https://mapp.api.weibo.cn/fx/5eef028e79a52ac7f23abd4f9fac9266.html
Victoria Slocum解释MCP 和 Function Calling的差异:
MCP 和 Function Calling 解决的是不同的问题。
一个告诉模型使用什么工具,另一个则规范工具如何连接。
它们是互补的技术,而非竞争对手。
🔍 Function Calling 的核心目的:
帮助大语言模型 (LLM) 识别何时需要外部工具
为工具使用格式化必 https://mapp.api.weibo.cn/fx/fd4b791f58cf4eba47da320784201a1e.html
MCP 和 Function Calling 解决的是不同的问题。
一个告诉模型使用什么工具,另一个则规范工具如何连接。
它们是互补的技术,而非竞争对手。
🔍 Function Calling 的核心目的:
帮助大语言模型 (LLM) 识别何时需要外部工具
为工具使用格式化必 https://mapp.api.weibo.cn/fx/fd4b791f58cf4eba47da320784201a1e.html
AMO,UC San Diego 的一项工作,自适应运动优化用于超灵巧人形全身控制。AMO 是通过 RL + 混合动作捕捉与轨迹优化训练的单一策略。
AMO 将 VR 设备的 3 个姿态映射到 18 维命令(每只手臂 7 个,躯干方向的滚转、俯仰、偏航以及基座高度),供 AMO 控制器执行。
AMO 让人形机器人能够锁定躯干方向和 https://mapp.api.weibo.cn/fx/678038f0e81a7a548026735e726db85c.html
AMO 将 VR 设备的 3 个姿态映射到 18 维命令(每只手臂 7 个,躯干方向的滚转、俯仰、偏航以及基座高度),供 AMO 控制器执行。
AMO 让人形机器人能够锁定躯干方向和 https://mapp.api.weibo.cn/fx/678038f0e81a7a548026735e726db85c.html
来自 X 上一线芯片设计工程师 fin 的观点:
“从芯片设计来看,即便是o3如此强大的AI再发展下去,离自己设计芯片,来取代芯片工程师的职位,仍然很遥远,o3o4o5的进步是10分到50分的事情,而现在的芯片早就进化到堆人力从90分往95分逼近了
当然了,半导体行业广泛采用claude3.7/o3级别的AI,确实也是 https://mapp.api.weibo.cn/fx/730acfd740e41136cd56c82e29de220b.html
“从芯片设计来看,即便是o3如此强大的AI再发展下去,离自己设计芯片,来取代芯片工程师的职位,仍然很遥远,o3o4o5的进步是10分到50分的事情,而现在的芯片早就进化到堆人力从90分往95分逼近了
当然了,半导体行业广泛采用claude3.7/o3级别的AI,确实也是 https://mapp.api.weibo.cn/fx/730acfd740e41136cd56c82e29de220b.html
前天晚上我心血来潮想用 Cursor 开发一款微信小程序,心动不如行动,我就马上开发了,花了半天时间我就开发出来了,整个过程很顺利,很高效,效果也很好。
为什么要开发这样一个小程序呢?我过两天会在教程当中详细说明。
我的整个思路就是:将需求告诉 DeepSeek ,让 DeepSeek 帮我设计原型图。(见 https://mapp.api.weibo.cn/fx/2452d6bcffdf3345e956cad81f5ed547.html
为什么要开发这样一个小程序呢?我过两天会在教程当中详细说明。
我的整个思路就是:将需求告诉 DeepSeek ,让 DeepSeek 帮我设计原型图。(见 https://mapp.api.weibo.cn/fx/2452d6bcffdf3345e956cad81f5ed547.html
Andrej Karpathy在阅读 Claude 的系统提示词后, 认为可以将 system prompt提升到作为和预训练、微调同级别的调教大模型的方法。(Claude 泄露的系统提示词可以在这里看到: github.com/asgeirtj/system_prompts_leaks/blob/main/claude.txt )。
下为全文翻译:
关于大语言模型如何学习和提升能力,我 https://mapp.api.weibo.cn/fx/4e85fd6fd9eb9cf6bf61d9180bb4968e.html
下为全文翻译:
关于大语言模型如何学习和提升能力,我 https://mapp.api.weibo.cn/fx/4e85fd6fd9eb9cf6bf61d9180bb4968e.html
#字节Seed首次开源代码模型##字节Seed开源代码模型夺SOTA#
字节跳动的Seed团队,首次开源了他们的代码大模型——Seed-Coder,参数规模8B,在多个权威基准上击败了Qwen3、DeepSeek-R1,夺得SOTA成绩。
Seed-Coder共发布了三个版本:
- Base:基础模型
- Instruct:强化指令理解,通过监督微调+偏好优 https://mapp.api.weibo.cn/fx/38751cf2799a3f758dda30228ac52a61.html
字节跳动的Seed团队,首次开源了他们的代码大模型——Seed-Coder,参数规模8B,在多个权威基准上击败了Qwen3、DeepSeek-R1,夺得SOTA成绩。
Seed-Coder共发布了三个版本:
- Base:基础模型
- Instruct:强化指令理解,通过监督微调+偏好优 https://mapp.api.weibo.cn/fx/38751cf2799a3f758dda30228ac52a61.html
OpenAI 终于出了个详细的说明,
关于何时使用哪个模型↓
1. GPT-4o -用于日常工作流程中的实时、多模态推理的比较全面的模型。
2. GPT-4.5——更广泛的知识和更好的语气控制——非常适合写作、编码和快速解决问题。
3. o4-mini -快速、经济高效的代码、数学和视觉任务推理。
4. o4-mini-high - 比 https://mapp.api.weibo.cn/fx/5438ce3955e394ff8553e0312c5a7afc.html
关于何时使用哪个模型↓
1. GPT-4o -用于日常工作流程中的实时、多模态推理的比较全面的模型。
2. GPT-4.5——更广泛的知识和更好的语气控制——非常适合写作、编码和快速解决问题。
3. o4-mini -快速、经济高效的代码、数学和视觉任务推理。
4. o4-mini-high - 比 https://mapp.api.weibo.cn/fx/5438ce3955e394ff8553e0312c5a7afc.html