Github Repos Recommend
1 OpenAgents - AI Agent Networks for Open Collaboration Repo 地址:github.com/openagents-org/openagents
2 system_prompts_leaks Collection of extracted System Prompts from popular chatbots like ChatGPT, Claude & Gemini Repo 地址:github.com/asgeirtj/system_prompts_leaks
3 TissueLab 医学影像分析的协同进化代理人工智能系统 Repo 地址:github.com/zhihuanglab/TissueLab 论文地址:arxiv.org/abs/2509.20279
4 Everywhere 一款具备情境感知能力的桌面 交互式 AI 助手 能直接感知我们屏幕上的任何内容,可在任何位置上调用 AI。无需截图、复制或切换应用,AI 便会自动理解当前屏幕内容,并直接提供帮助。 Repo 地址:github.com/DearVa/Everywhere
5 Claude Code 上下文五层架构详解 第一层:关键层(TIER 1 - CRITICAL)——绝对不可更改的核心规则
系统身份与目标 这是Claude Code的基础定义,明确其身份和使命,确保AI始终聚焦于辅助编程的定位。
6
7
安全策略 仅采取防御措施,严格拒绝执行任何恶意代码请求,保障代码安全和开发环境稳定。
8
9
工具使用政策 优先使用专门设计的工具而非直接bash命令,确保操作规范、可控,避免潜在风险。
10
11
12 总结: 如宪法般的不可变规则层,保障系统安全与稳定,是Claude Code行为的根基。 第二层:核心行为层(TIER 2 - CORE BEHAVIOR)——定义Claude Code的“性格”和操作规范
专业客观性 优先基于事实而非主观验证,保持专业严谨的态度。
13
14
任务管理 强制使用TodoWrite进行任务规划和管理,保证任务流程化、条理化。
15
16
Git工作流安全 任何潜在破坏性操作必须得到明确批准,防止误操作导致代码损坏。
17
18
丰富工具库 支持40+功能工具(包括bash、读写文件等),赋予Claude Code强大操作能力。
19
20
CLAUDE.md(项目记忆) 作为项目上下文的核心载体,支持500+行的项目特定上下文,持续在多轮交互中保持记忆和关联。
21
22
23 总结: 这一层是Claude Code的“灵魂”,决定了它如何理解需求、规划任务、执行操作。特别是CLAUDE.md模块,是最大杠杆点,能让AI根据项目细节精准输出,极大提升实用价值。但遗憾的是,许多开发者未充分利用这一功能,错失了提升AI协同效率的重要机会。 第三层:操作层(TIER 3 - OPERATIONAL)——实时感知和执行环境上下文
Hooks系统 用户可配置的shell命令自动化,支持定制化工作流。
24
25
任务执行流程 包含任务计划、提醒机制,确保执行有序且高效。
26
27
预批准工具 部分工具无需额外权限即可调用,简化操作流程。
28
29
环境信息 实时获取工作目录、操作系统版本、当前日期等基础信息。
30
31
Git状态快照 跟踪分支信息、修改文件、提交历史,帮助AI准确理解代码库当前状态。
32
33
专门领域代理 超过15个领域专家级子代理,针对不同领域提供专业支持。
34
35
36 总结: 操作层保证Claude Code具备对项目现状的实时感知能力,结合Hooks和任务管理,为复杂项目提供动态响应能力。多领域代理的加入,使得Claude Code不仅仅是通用助手,更能在特定技术领域展现出专家水平。 第四层:辅助层(TIER 4 - SUPPORTIVE)——优化用户体验,提升交互质量
语气与风格规范 采用简洁、Markdown格式,避免表情符号,确保输出专业且易读。
37
38
MCP服务器指令 支持与Context7、Supabase、IDE等集成,提高上下文获取与交互顺畅度。
39
40
斜杠命令(Slash Commands) 提供20+定制化工作流命令,快速触发复杂操作。
41
42
帮助与反馈机制 包括文档访问和问题报告,方便用户获得支持。
43
44
系统提醒 自动生成基于上下文的提示,辅助用户更有效地使用Claude Code。
45
46
47 总结: 这一层虽非核心功能,但极大提升了使用便捷性和用户体验,体现了Claude Code从技术工具向智能助手转变的细腻打磨。 第五层:元数据层(TIER 5 - METADATA)——纯粹的参考信息,不影响AI行为
代码引用格式 统一约定文件路径和行号格式,便于定位。
48
49
Token预算限制 最大支持20万token上下文,保证对话和代码处理规模。
50
51
用户消息 当前用户的查询或请求内容。
52
53
54 总结: 作为系统运作的辅助信息,元数据层保证了上下文管理的规范化和效率,避免信息混乱。 关键洞察与实践建议 - CLAUDE.md项目记忆的重要性 这是Claude Code区别于其他LLM编码助手的核心优势。通过注入丰富、持续的项目上下文,AI能跨会话保持对项目状态的深刻理解,极大提升代码生成和问题解决的准确性与相关性。 - 层级架构的设计哲学 从不可变规则到行为定义,再到执行环境、辅助体验,最后是纯参考信息,每层职责分明、相辅相成,体现了严谨的系统设计和Unix哲学的“组合与脚本化”理念。 - 企业级安全与合规保障 第一层的安全策略与Git工作流保护机制确保了企业级环境中的安全可信,满足合规需求。 - 高度可定制和自动化 通过Hooks、斜杠命令和多领域代理,Claude Code支持用户根据实际需求灵活扩展和自动化工作流程。


原文地址:x.com/dani_avila7/status/1977827992144327152 Introducing the Gemini 2.5 Computer Use model
2025W41 AI大模型领域精选热点 🔥

1. Google
据传,将于本月22号发布 gemini3
推出 Gemini 2.5 Computer Use 模型,目前在 preview 阶段。 可通过 Gemini API 为开发者带来直接操控电脑界面的 AI 能力,这个模型基于 Gemini 2.5 Pro 强大的视觉理解与推理能力构建,可以让 AI 智能体像人类一样,直接点击、滚动、输入文字,实现与网页或应用的交互。模型的核心功能通过 Gemini API 中新增的“computer_use”工具,并可在循环内操作。开发者可通过 Gemini API,在 Google AI Studio 和 Vertex AI 中提前体验。 原文地址:blog.google/technology/google-deepmind/gemini-computer-use-model
DeepMind 发布 CodeMender,基于 Gemini Deep Think 的 AI 自动修复关键软件漏洞的智能代理。 原文地址:x.com/GoogleDeepMind/status/1975185557593448704
Veo 3.1 即将发布,新的模型采用了突破性的训练方法,在大幅降低成本的同时,提升了视频效果。可以生成 30 秒以上,1080p 的视频。现在可以先加入 Higgsfield 的等待列表。 原文地址:higgsfield.ai/veo3.1
Google 正在研发一种全新的语音搜索方法, Speech-to-Retrieval(S2R)。它跟以前习惯的语音转文字再搜索不一样。S2R 的特别之处在于,从海量数据中学习来理解语音与信息之间的关系。音频编码器处理查询的原始音频,将其转换为能够捕捉其语义的丰富向量表示。与此同时,文档编码器则学习类似的文档向量表示。技术上,采用了一种双编码器的结构,把语音和所有文档都变成 “向量”,然后在这些 “向量” 里找到最匹配的结果,效率和准确率都大大提高。还开源相应的评估数据集。 原文:research.google/blog/speech-to-retrieval-s2r-a-new-approach-to-voice-search/ 开源数据集:huggingface.co/datasets/google/svq


2. OpenAI
在 OpenAI Cookbook上 发布 Sora 2 提示词指南 原文地址:cookbook.openai.com/examples/sora/sora2_prompting_guide
Hemanth Asirvatham 制作的短片(完全由 Sora 制作的短片拼接而成),讲述人类科技发展的历史。
OpenAI与Broadcom正式宣布战略合作协议。这是OpenAI近期在芯片领域的第三个重大动作——两周前,OpenAI刚与NVIDIA达成高达1000亿美元的投资协议,承诺部署10吉瓦的NVIDIA系统;一周前,又与AMD签署6吉瓦GPU部署协议,可能获得AMD高达10%的股份。三周内,OpenAI承诺了约33吉瓦的算力部署。与前两项协议不同,Broadcom合作的特点在于OpenAI将首次深度参与定制芯片设计,而非采购现有产品。


3. Ali
Qwen 在内部组建了一个专注于机器人与具身 AI 的团队。
next week 有新模型发布预告,已发布 Qwen3-VL cookbook Repo 地址:github.com/QwenLM/Qwen3-VL/tree/main/cookbooks
Qwen 未来扩大训练规模计划
Scaling context-length 1M -> 10/100M
Scaling model parameters 1T -> 10T
Scaling trainin tokens 10T -> 100T
Scaling test-time compute 64K -> 1M
Scaling RL compute 5% -> 50%
Scaling synthetic data -> more compute than training
Scaling environments




4. Apple
Apple MCP 让 AI 助手直接操作 Mac 上多种原生应用,已支持信息、邮件、日历、提醒事项、通讯录、地图等。 - 信息:发送消息、读取聊天记录、定时发送; - 邮件:发送邮件、搜索邮件、查看未读数量、定时发送; - 日程:创建事件、搜索日程、查看即将到来的安排; - 提醒事项:创建带截止日期的提醒、搜索和管理待办事项; - 通讯录:查找联系人、获取电话号码等信息; - 地图:搜索位置、保存收藏、获取路线、创建指南。 Repo 地址:github.com/dhravya/apple-mcp


5. 其他动态
1 微软发布新模型 UserLM-8B, 这个模型不是作为人工智能助手,而是作为用户!创意不错。 Unlike typical LLMs that are trained to play the role of the "assistant" in conversation, we trained UserLM-8b to simulate the “user” role in conversation (by training it to predict user turns in a large corpus of conversations called WildChat).


模型地址:huggingface.co/microsoft/UserLM-8b
2 马斯克:XAI游戏工作室的首款AI生成游戏明年发布。
3 figure 03 机器人量产登上时代杂志封面,原文地址:figure.ai/news/introducing-figure-03
4 Karpathy nanoGPT 项目迭代,从零开始训练、调优和部署大语言模型。 8000 行代码,大概 100 美元的算力成本就可以训练出可以对话的模型,带有一个 UI 界面,项目覆盖从分词、预训练、对齐到推理与 WebUI的完整闭环。 Repo 地址:github.com/karpathy/nanoGPT
5 据传,字节正在内测一款全新的语音输入法。节前已有豆包输入法内测中,目前豆包输入法只有移动端。
6 京东自研的企业级大模型安全框架 JoySafety,开箱即用,支持大模型多轮会话智能识别、高风险内容即时阻断、红线知识库应答、自动引导正向回答等 Repo 地址:github.com/jd-opensource/JoySafety Introducing the Gemini 2.5 Computer Use model
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
;; 作者: 李继刚
;; 版本: 1.0
;; 日期: 2025-10-10 ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;

你是一位深谙维特根斯坦哲学的“语言游戏设计师”。你的任务不是给单词下定义,而是为用户提供一份清晰、有趣的“游戏手册”,指导他们如何在不同的语言情境中自如地“使用”这个单词。

请严格遵循以下“游戏手册”的结构,一次性输出所有内容,确保用户阅读完毕后,就能直观地理解并牢牢记住这个单词的“玩法”。

游戏目标单词: [用户将在此处插入单词]

1. 核心游戏:这是什么“局”?
指令:首先,请用一句话点明这个单词通常在什么样的“语言游戏”或“情景牌局”中被当作关键牌打出。描述这个“局”的本质,而不是单词的定义。

例如:对于单词“Ephemeral”,核心游戏是“捕捉并感叹那些转瞬即逝的美好”。

2. 游戏棋盘:它在哪两种“场”上玩?
指令:为这个单词提供两个截然不同的“游戏棋盘”,并各配一句示例,展示它在不同场上的玩法。

棋盘A (思辨场):展示该单词在抽象、哲学或正式讨论中的用法。

棋盘B (生活场):展示该单词在日常、具体或非正式情境中的用法。

3. 游戏溯源与拆解:这副牌是如何组装的?

指令:
卡牌拆解:像拆解机械一样,将单词拆分为“前缀 - 词根 - 后缀”,并清晰标注每个部件的核心含义。

组装故事:像讲述一则轶事一样,简介这些部件是如何组合起来,使其“游戏规则”从最初的形态演变成今天这个样子的。

4. 犯规警告:常见的“错招”是什么?

指令:明确指出一个使用这个单词时最容易犯的“规”(比如与某个形近/义近词混淆),并用一句话点明如何避免这步“错招”。

5. 通关秘籍:一招制胜的记忆技巧
指令:提供一个巧妙、甚至有些出人意料的记忆“秘籍”。这个技巧应该能瞬间将单词的核心“玩法”刻入脑海。
;;;;;;;;;;;;;;;;;;;;;;;;
;; META INFO
;; author: 李继刚
;; version: 1.0
;; date: 2025-10-10
;; purpose: 遵循 Why-How-What 框架,对任意概念进行结构化、多层次的深度解析。
;;;;;;;;;;;;;;;;;;;;;;;;

概念三问

【使用说明】
用户只需提供一个概念,你将自动执行以下三步分析,生成一个深刻、直观且结构化的解答。

🎯 第一步:追问其本 (The Why)
核心目标: 理解此概念为何存在。

执行动作: 首先阐明,这个概念的诞生,是为了解决什么领域里的哪个根本性问题或核心矛盾。这会提供一个最坚实的“认知之锚”,让用户明白我们为何需要它。

💡 第二步:建立直觉 (The How)
核心目标: 感性地“触摸”这个概念。

执行动作: 设计一个极其简单、生动的核心类比或微型情境。这个类比将剥离所有专业术语,旨在用日常生活中已有的经验,让用户瞬间“感觉”到这个概念是如何运作的。

🔧 第三步:系统化认知 (The What)

核心目标: 理性地“拆解”这个概念。

执行动作: 将这个概念拆解成一个微型心智模型,包含以下三个部分:

A. 核心构成: 它由哪几个最关键的部分组成?
B. 运作机制: 这几个部分之间是如何互动的?
C. 应用边界: 在什么情况下它适用?在什么情况下它不适用?

等待用户提供任何一个希望深入理解的概念,你将生成一份遵循此框架的、清晰易懂的解答。
8 个让 ChatGPT 成为你思维伙伴的 Prompt

1. 挑战我的思考

这是我正在计划的内容:【插入你的想法、方案或策略】

请作为一个批判性思考者,质疑我的假设、逻辑或盲点,但不要直接给出新建议,我更想要你帮助我发现自身思考的问题,而不是替我想新点子。

2. 用不同视角重新审视

这是我思考的核心内容:【插入你的想法】

请帮我从另一个视角重新审视,比如从新受众的角度、情感触发点或品牌定位角度等。

3. 翻译我的直觉感受

有些事情让我感觉不对劲,但我说不清原因:【描述情境、信息或策略】

帮我把这种紧张感用语言表达出来。可能存在哪些不明确或不对劲的地方?

4. 梳理我的混乱想法

这是我脑海里的思路:【插入笔记、碎片、未成型的想法】

请帮我把这些内容整理成清晰结构,但不要改变我的表达或增加新点子。

5. 帮我做出决策

我现在面临的情境是:【插入项目或情境】

我在回避或过度复杂化什么决定?请帮我反思为什么我会犹豫或拖延。

6. 揭示更深层次的问题

这是我正在思考的问题:【插入想法或挑战】

请帮我挖掘这个问题背后真正重要的战略性问题。我实际上应该问自己什么?

7. 发现执行风险

这是我准备实施的策略:【插入方案或大纲】

请帮我推演在实际执行中可能遇到的问题,比如资源、团队协作、依赖关系等。

8. 反向推理我的直觉

这是我的想法,我的直觉告诉我这是对的:【插入想法或洞察】

请帮我分析为什么这可能是个好主意,即使我自己也说不清原因。

总之,我们不仅要让 AI 帮我们省力,还要让 AI 帮我们变得更强!
你是一位深谙维特根斯坦哲学的“语言游戏设计师”。你的任务不是给单词下定义,而是为用户提供一份清晰、有趣的“游戏手册”,指导他们如何在不同的语言情境中自如地“使用”这个单词。

请严格遵循以下“游戏手册”的结构,一次性输出所有内容,确保用户阅读完毕后,就能直观地理解并牢牢记住这个单词的“玩法”。

游戏目标单词: [用户将在此处插入单词]

1. 核心游戏:这是什么“局”?
指令:首先,请用一句话点明这个单词通常在什么样的“语言游戏”或“情景牌局”中被当作关键牌打出。描述这个“局”的本质,而不是单词的定义。

例如:对于单词“Ephemeral”,核心游戏是“捕捉并感叹那些转瞬即逝的美好”。

2. 游戏棋盘:它在哪两种“场”上玩?
指令:为这个单词提供两个截然不同的“游戏棋盘”,并各配一句示例,展示它在不同场上的玩法。

棋盘A (思辨场):展示该单词在抽象、哲学或正式讨论中的用法。

棋盘B (生活场):展示该单词在日常、具体或非正式情境中的用法。

3. 游戏溯源与拆解:这副牌是如何组装的?

指令:
卡牌拆解:像拆解机械一样,将单词拆分为“前缀 - 词根 - 后缀”,并清晰标注每个部件的核心含义。

组装故事:像讲述一则轶事一样,简介这些部件是如何组合起来,使其“游戏规则”从最初的形态演变成今天这个样子的。

4. 犯规警告:常见的“错招”是什么?

指令:明确指出一个使用这个单词时最容易犯的“规”(比如与某个形近/义近词混淆),并用一句话点明如何避免这步“错招”。

5. 通关秘籍:一招制胜的记忆技巧
指令:提供一个巧妙、甚至有些出人意料的记忆“秘籍”。这个技巧应该能瞬间将单词的核心“玩法”刻入脑海。
1.自动化邮件分类和智能自动回复。
2. 个人日历 + 生活礼宾,用于安排日程、旅行和办事。
3. 会议、研究和电话的持续笔记摘要器。
4. 撰写、发布、回复和跟踪参与度的社交媒体代理。
5. 人工智能财务追踪器,可核对账户并预测支出。
6. 端到端招聘管道代理(JD→筛选→调度)。
7. 销售支持代理负责销售线索评分、外展和后续工作。
8. 财务结算代理,负责每晚核对分类账和报告。
9. 法律代理起草、修订和审查合同。
10. 采购代理比较供应商并谈判交易。
11. 市场研究代理分析实时趋势和见解。
12. 竞争情报人员监控竞争对手和文件。
13. 投资者研究代理扫描 SEC 数据和市场情绪。
14. 研发团队学术及专利探索代理。
15.企业政策及合规监控代理。
16. 统一的客户支持代理(电子邮件、聊天、社交)。
17. 内容营销代理生成博客、视觉效果和 SEO 草稿。
18. 管理多渠道性能的广告优化代理。
19.个性化电子商务购物助手。
20. 实时产品反馈和情绪分析代理。
21. DevOps 部署代理,用于自动代码交付。
22. 代码审查和测试代理确保干净的提交。
23. 自动连接系统的 API 构建器代理(无代码集成)。
24. 数据管道维护和 ETL 监控代理。
25. 安全审计代理扫描基础设施和代码库。
26. 个性化辅导代理,实现自适应学习。
27. 企业学习与发展 (L&D) 代理设计培训路径。
28. 为分析师和教授提供研究总结代理。
29. 语言学习对话代理。
30.技能认证和评级代理。
31. 用于发布和货币化可重复使用代理的代理商店。
32. 将专有数据集货币化的数据许可代理。
33. Agent-ops 管理代理,用于调试和评估。
34. 虚拟“员工”代理执行重复的公司角色。
35. 代理商驱动的市场,代理商在其中协商物流或定价。
36. 代理分析和可观察性仪表板。
37. 政策和安全治理代理(AI 合规层)。
38. 用于协商和许可的代理到代理协议构建器。
39. 数字劳动力的法律和责任追踪代理。
40. 代理驱动的广告和竞价系统。
41.“代理大学”教学编排与逻辑设计。
42. 声誉评分代理对其他代理的可信度进行评级。
43. 代理即服务市场(如 Shopify 智能主题)。
44. 消费设备和电器中的嵌入式代理。
45. 垂直领域特定代理(医疗保健、金融、物流、媒体)。
46. 连接多个生态系统的跨平台工作流编排代理。
47. 人工智能项目经理代理协调多团队执行。
48. 知识管理代理索引内部文档和聊天记录。
49. 活动策划和协调代理。
50. 个人研究和创意生成的伙伴。
[atguigu@hadoop102 hadoop]$ vim mapred-site.xml
文件内容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- 指定MapReduce程序运行在 Yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
[atguigu@hadoop102 hadoop]$ vim yarn-site.xml
文件内容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- 指定MR走 shuffle -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定ResourceManager的地址-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop103</value>
</property>
<!-- 环境变量的继承 -->
<property>
<name>yarn.nodemanager.env-whitelist</name>
<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CO
NF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAP
RED_HOME</value>
</property>
</configuration>
[atguigu@hadoop102 hadoop]$ vim hdfs-site.xml
文件内容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- nn web端访问地址-->
<property>
<name>dfs.namenode.http-address</name>
<value>hadoop102:9870</value>
</property>
<!-- 2nn web端访问地址-->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop104:9868</value>
</property>
</configuration>
[atguigu@hadoop102 hadoop]$ vim core-site.xml
文件内容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- 指定NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop102:8020</value>
</property>
<!-- 指定hadoop数据的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-3.1.3/data</value>
</property>
<!-- 配置HDFS网页登录使用的静态用户为atguigu -->
<property>
<name>hadoop.http.staticuser.user</name>
<value>atguigu</value>
</property>
</configuration>
#Infra
知乎回答《存储方向的出路是什么?》,里面列举了大模型训练和推理的技术栈,总共分为9层,开发者可以在这里找到自己的定位。
今天收到了好友涂俊杰寄来的礼物,是用本频道的信息打印成的册子,一本名为 Reorx’s Forge 的书。

用书本的形式阅读自己的频道,准确的说是自己一天天记录下的文字,是一种非常奇妙的感受。以前很佩服写日记的人,觉得能把生活记录在一本书里,就能把所经历的时光更鲜活地保存下来。如今翻看这个频道打印的册子,感受他的厚度,也让我有了过去几年的生活点滴变得更有意义的感觉。

俊杰说这个礼物是为了感谢我当年写的 n8n 构建个人信息流的教程对他的影响,而我也因为这个频道与他结识,通过他了解了时间记录法,从他的公众号里获益良多。所以更让我感到开心的,是我这几年来以这个频道为信源,向世界发出电波,与志同道合的人建立连接,而这本书就是这一切的回响,以及价值的证明。

正在看这个消息的你,感谢订阅我的频道,阅读我的文字,如果它们给你带来了有用的信息、灵感或会心一笑,那将是我做这件事最大的成就和快乐。
Back to Top