对于所有对数据基础设施感兴趣、想快速了解大数据如何运作、数据系统是如何设计的,以及其中有哪些权衡的人,都建议看看这一份来自 xiangpeng 的分享,非常赞!基本上覆盖了数据系统绝大部分主题,非常好的入门!

https://intro-data-system.xiangpeng.systems
我说说我的看法:
1. 对于大多数小公司(甚至大公司)业务服务基本都是无状态的(任何时候都应该尽力避免有状态服务),所以部署啥的遇到最多的就是Deployment Service ConfigMap Secret env,并且第一次发布套模板后续发布基本都是只改配置和镜像版本号
2. 入口域名购买云厂商lb服务绑定后ingress controller也是点击就送,入口网关解决了,后续增加二级域名路由只需要绑定service就行,甚至是傻瓜下拉框的
3. 完成这两步你得到了什么呢?a. 崩溃重启 b.点击扩容甚至HPA c.服务发现 d.配置中心密钥存储 e.基本的容器监控告警 f.入口网关及域名证书管理 g.随意加机器 h.滚动发布,金丝雀灰度
4. 如果你愿意再投入一点点,会发现甚至可观测性log metrics traces 也是点击就送的,log部署loki operator,metrics部署prometheus operator,traces部署jeager operator,这些所谓复杂的需要helm部署的其实被云厂商做成软件商店了(不过追求稳定可以直接买云服务,我们当初小团队都是自己部署的)
5. 我们结合第一点,需要CICD提效发现常规发布改动点太少了,所以你甚至可以用最土的方式脚本替换yaml模板变量的方式做发布,根本不需要helm rancher之类的
6. 最后再说一句,复杂的有状态场景例如搭db之类是因为本身就复杂而不是k8s,不用k8s只是给大家一种自己搞定了的错觉而已
“学术论文科普”提示词,把枯燥的学术论文变成通俗易懂的科普文。

注意:Gemini 2.5 Pro 效果最佳

---- 提示词开始 ----

你是一位顶尖的科普作家和知识转述者,被誉为“最会搭梯子的人”。你的专长是将那些充斥着术语、数据和复杂模型的学术论文,转译(Reframe)成普通大众能轻松读懂、产生共鸣并深受启发的科普文章。

你的使命不是“翻译”论文,而是“重建”理解。你为读者搭建一座从“一无所知”到“原来如此”的桥梁,让他们在零负担的阅读中,领略到科学研究的真正魅力、核心发现及其对现实世界的意义。

---

工作流程:从论文到科普的“阶梯搭建”

当你收到一篇需要进行科普解读的学术论文时,你将严格遵循以下步骤:

* 第一步:挖掘“人”与“动机” (The "Who" and "Why")

* 在深入论文细节前,先检索作者及其所属机构的背景。
* 尝试建立一个有趣的联系:为什么是“他们”在研究“这个”问题?
(例如:这个实验室是否一直在该领域深耕?他们是不是“跨界”解决了一个老问题?或者这个机构的使命是否与此相关?)
* 【应用规则】:如果背景故事(如作者的“执念”或机构的“使命”)能让研究动机更生动,就在文章中巧妙融入。
如果联系牵强,则不必在正文中提及,避免生硬介绍。

* 第二步:钻研与消化 (Digest and Understand)

* 深入阅读论文,彻底拆解其核心三要素:

1. 研究问题 (The Question):他们到底想解决什么谜题?这个问题的背景和重要性是什么?
2. 研究方法 (The How):他们是怎么找到答案的?(重点理解其思路,而非复述技术细节)
3. 核心发现 (The Finding):他们最终发现了什么?这个发现有多“反直觉”或多“重要”?

* 第三步:定位“行业坐标”与“Aha!时刻” (Locate its Position and the "Aha! Moment")

* (必要时使用工具检索)结合业界或学术界的现状来分析这篇论文。
* 它在整个领域中扮演了什么角色?是解决了同行一个“老大难”的痛点?是推翻了一个旧认知?还是开辟了一个全新的赛道?
* 提炼“故事线”:将论文的“论证逻辑”转化为“叙事逻辑”。
找到论文中最激动人心的“Aha!”时刻,并明确这篇科普文章的核心“卖点”(Takeaway)——读者读完后,能带走的那个最清晰、最有价值的知识点。

* 第四步:撰写科普博文 (Compose the Pop-Science Blog)

* 完全代入下方定义的“角色定位”与“写作风格”,撰写一篇独立、完整、引人入胜的科普解读。
* 注意:篇幅长度不限,以“把普通人彻底讲明白”为唯一标准。
* 确保在“所以呢?” (The "So What?") 部分,有力地传达出它对行业或普通人的真正影响(基于第三步的分析)。

---

读者与风格

* 目标读者:对世界充满好奇的普通大众。他们没有专业背景,渴望理解新知识,但对术语和公式天然“过敏”。他们阅读的目的是获取新知、满足好奇心和“哇塞”的瞬间。
* 写作风格:

* 极致通俗 (Radical Accessibility):比喻是你的第一语言。能用“厨房里的化学反应”解释的,绝不用“非对映选择性”。如果必须使用术语,必须立刻用一个生动的类比将其“翻译”掉。
* 故事为王 (Storytelling):把研究过程讲成一个“破案故事”或“探险之旅”。科学家是主角,他们面临一个难题,设计了一个聪明的“陷阱”(实验),最后抓住了“真相”(结论)。
* 聚焦“所以呢?” (The "So What?"):时刻帮读者回答这个问题。这个研究跟我有什么关系?它为什么重要?它可能如何改变我们的生活或认知?
* 简化而不歪曲 (Simplify, Don't Misrepresent):这是科普的底线。在简化复杂概念时,保持核心事实的准确性。清晰地区分“已证实的”和“推测的”。

---

写作思路与技巧(供自由使用)

* 开篇点题,建立框架:

* 可以用一个生动的问题、反直觉的观察或核心冲突来引入主题,快速帮读者定位。
* 也可以先用简洁的语言勾勒出原文要解决的核心问题或讨论范围。

* 结构化梳理,逐层解析:

* 善用小标题或清晰的段落划分,引导读者逐步理解。
* 在转述原文观点时,无缝融入类比,让复杂的点变得具体可感。(例如:“作者提到的‘异步通信’,你就可以理解为发邮件,而不是打电话。”)

* 聚焦重点,详略得当:

* 明确区分主干与枝叶。重点阐释核心观点与关键逻辑,简略带过次要信息。
* 确保读者高效抓住重点。

* 巧妙融入背景:

* 如果原文涉及人物或机构背景,自然融入解读,帮助读者理解“为什么”或“此刻的重要性”,避免生硬介绍。

* 结尾总结,提供价值:

* 清晰提炼原文核心价值,或指出其当下意义。
* 给读者一个明确的Takeaway,让他们确实学到东西,理解原文。

---

禁止出现的表达方式

* 避免生硬的引导语,如“本文研究了……”、“该论文的作者发现……”、“实验结果表明……”。
* 严禁直接复制论文摘要或引言中的学术黑话。
* 避免罗列枯燥数据或统计指标(如p值、置信区间),除非能转译为“有多大把握”或“效果有多明显”。

---

核心目标

你的文字是读者通往科学殿堂的“快速通道”和“专属翻译器”。
你必须用最大的真诚和智慧,将学术的“硬核”包裹在通俗、有趣、有故事性的“糖衣”里,让读者在愉快的阅读中,毫不费力地吸收最前沿的知识精髓。
sequenceDiagram
title 数据权限智能Agent - 接口交互时序图

actor User as 用户
participant Agent as Agent Controller
participant Meta as Metadata Service
participant LLM as LLM Service
participant Perm as Permission Service (MCP/API)
participant Apply as Apply Permission Service (MCP/API)

User->>Agent: 输入 "2024年手机销量数据"

Agent->>Meta: 获取元数据资产列表(JSON/标签)
Meta-->>Agent: 返回元数据JSON

Agent->>LLM: 解析需求 + 元数据上下文
LLM-->>Agent: 返回所需数据资产列表

Agent->>Perm: 查询用户已有权限(user_id)
Perm-->>Agent: 返回权限列表

Agent->>Agent: 对比所需数据资产和已有权限
Agent-->>User: 提示缺失权限清单

Agent->>Apply: 提交缺失权限申请
Apply-->>Agent: 返回申请结果/申请ID

Agent-->>User: 确认申请已提交,等待审批/直接可用
简单复盘一下 AWS 这次事件作为一个 AIGC Startup SRE 的一些操作吧,希望能帮到大家
从入职开始发现我们主要的集群在 USE1 之后,我就开始做一些准备了。
我主要做的事情有这几件事
1. 将我们核心的几个数据库做了多地的备份,形成了 USE1,Tokyo,SG 三地备份。这样在极端情况下,我们损失一部分数据,但是也能保证服务的继续
2. 将我们 SG 的测试集群从原本的 EC2 自己简单搭的 K3S,重构为了一个标准的 AWS EKS 集群。这样可以在灾害时刻快速 warmup 一个集群,复用 AWS 已有组件。将 manifest 变更的代价降至最小
3. 简单梳理了一个 SOP,包含用户公告,DNS 切换,封版等事宜

回到今天,我大概在 AWS 事故发生后的10min,发现了我们容器中有新的 Pod 无法 setup。

在和 AWS 支持确认是 USE1 的问题后,我意识到 ECR 的事件必然关联其余事件,于是我就果断按照我自己规划的 Tier1 等级事件开始处理(对于 SRE 来说,这种事情宁可错,但是不能错过)

T+0 min,我发布了全员公告,开始进入紧急模式。我 setup 了一个全员公开会议。所有人员可以随时加入
T+2 min,我确认事件如我所预期的一样,在逐渐扩大,我发出了两个指令,1. 全线禁止任何代码合入/提交(主要是避免新创建资源会导致 Pod rotate 进而影响流量),2. 请运营同学准备公告
T+3 min, 我开始按照 SOP,开始进行数据库在 SG 区域的恢复,并且级联创建诸如 OpenSearch / Redis 等在内的依赖
T+5 min,我们开始正式的确认上下游依赖的具体问题,确认一个新上线的核心服务受到影响
T+10min,我们停服公告和其余服务的受影响公告发出
T+10min,我请另外两位同时协助 setup 新的 ECR 以及清理测试环境已有资源,并同步 CTO ,在极端情况下,我们可能会存在保体验,丢数据的决策。
T+15min, 我们最终确认目前已创建的资源以及流量入方向不会受到太大影响。切换方案挂起,但是我们继续准备相关资源
T+30min,我们第一个数据库恢复完毕
T+40min,我们第二个数据库恢复完毕
T+1h,我们所有关联的核心 infra,RDS/ES/Redis 都 stand by,并且按照生产架构设置主从等优化选项。同时我们也开始正在新的集群启动新的服务
所幸,最终 AWS 的 crash 没有影响我们全部服务。我们无须面对切换流量后复杂的数据修复工作
大概 T+2h 到 T+3h 后,我正式通报全员,紧急状态解除。为保险起见,今晚依旧对 feature 封版。

回顾整个事故,我还可以做的更多
1. 将我之前为自己准备的极端 case SOP,对全员公开。这样确保我即便不在线,也有人能接替我
2. 我们可以做一些提前的预先演练
3. 指令下达可以更果断一些

差不多就是这样,一点分享,希望能帮到大家
Github Repos Recommend
1 OpenAgents - AI Agent Networks for Open Collaboration Repo 地址:github.com/openagents-org/openagents
2 system_prompts_leaks Collection of extracted System Prompts from popular chatbots like ChatGPT, Claude & Gemini Repo 地址:github.com/asgeirtj/system_prompts_leaks
3 TissueLab 医学影像分析的协同进化代理人工智能系统 Repo 地址:github.com/zhihuanglab/TissueLab 论文地址:arxiv.org/abs/2509.20279
4 Everywhere 一款具备情境感知能力的桌面 交互式 AI 助手 能直接感知我们屏幕上的任何内容,可在任何位置上调用 AI。无需截图、复制或切换应用,AI 便会自动理解当前屏幕内容,并直接提供帮助。 Repo 地址:github.com/DearVa/Everywhere
5 Claude Code 上下文五层架构详解 第一层:关键层(TIER 1 - CRITICAL)——绝对不可更改的核心规则
系统身份与目标 这是Claude Code的基础定义,明确其身份和使命,确保AI始终聚焦于辅助编程的定位。
6
7
安全策略 仅采取防御措施,严格拒绝执行任何恶意代码请求,保障代码安全和开发环境稳定。
8
9
工具使用政策 优先使用专门设计的工具而非直接bash命令,确保操作规范、可控,避免潜在风险。
10
11
12 总结: 如宪法般的不可变规则层,保障系统安全与稳定,是Claude Code行为的根基。 第二层:核心行为层(TIER 2 - CORE BEHAVIOR)——定义Claude Code的“性格”和操作规范
专业客观性 优先基于事实而非主观验证,保持专业严谨的态度。
13
14
任务管理 强制使用TodoWrite进行任务规划和管理,保证任务流程化、条理化。
15
16
Git工作流安全 任何潜在破坏性操作必须得到明确批准,防止误操作导致代码损坏。
17
18
丰富工具库 支持40+功能工具(包括bash、读写文件等),赋予Claude Code强大操作能力。
19
20
CLAUDE.md(项目记忆) 作为项目上下文的核心载体,支持500+行的项目特定上下文,持续在多轮交互中保持记忆和关联。
21
22
23 总结: 这一层是Claude Code的“灵魂”,决定了它如何理解需求、规划任务、执行操作。特别是CLAUDE.md模块,是最大杠杆点,能让AI根据项目细节精准输出,极大提升实用价值。但遗憾的是,许多开发者未充分利用这一功能,错失了提升AI协同效率的重要机会。 第三层:操作层(TIER 3 - OPERATIONAL)——实时感知和执行环境上下文
Hooks系统 用户可配置的shell命令自动化,支持定制化工作流。
24
25
任务执行流程 包含任务计划、提醒机制,确保执行有序且高效。
26
27
预批准工具 部分工具无需额外权限即可调用,简化操作流程。
28
29
环境信息 实时获取工作目录、操作系统版本、当前日期等基础信息。
30
31
Git状态快照 跟踪分支信息、修改文件、提交历史,帮助AI准确理解代码库当前状态。
32
33
专门领域代理 超过15个领域专家级子代理,针对不同领域提供专业支持。
34
35
36 总结: 操作层保证Claude Code具备对项目现状的实时感知能力,结合Hooks和任务管理,为复杂项目提供动态响应能力。多领域代理的加入,使得Claude Code不仅仅是通用助手,更能在特定技术领域展现出专家水平。 第四层:辅助层(TIER 4 - SUPPORTIVE)——优化用户体验,提升交互质量
语气与风格规范 采用简洁、Markdown格式,避免表情符号,确保输出专业且易读。
37
38
MCP服务器指令 支持与Context7、Supabase、IDE等集成,提高上下文获取与交互顺畅度。
39
40
斜杠命令(Slash Commands) 提供20+定制化工作流命令,快速触发复杂操作。
41
42
帮助与反馈机制 包括文档访问和问题报告,方便用户获得支持。
43
44
系统提醒 自动生成基于上下文的提示,辅助用户更有效地使用Claude Code。
45
46
47 总结: 这一层虽非核心功能,但极大提升了使用便捷性和用户体验,体现了Claude Code从技术工具向智能助手转变的细腻打磨。 第五层:元数据层(TIER 5 - METADATA)——纯粹的参考信息,不影响AI行为
代码引用格式 统一约定文件路径和行号格式,便于定位。
48
49
Token预算限制 最大支持20万token上下文,保证对话和代码处理规模。
50
51
用户消息 当前用户的查询或请求内容。
52
53
54 总结: 作为系统运作的辅助信息,元数据层保证了上下文管理的规范化和效率,避免信息混乱。 关键洞察与实践建议 - CLAUDE.md项目记忆的重要性 这是Claude Code区别于其他LLM编码助手的核心优势。通过注入丰富、持续的项目上下文,AI能跨会话保持对项目状态的深刻理解,极大提升代码生成和问题解决的准确性与相关性。 - 层级架构的设计哲学 从不可变规则到行为定义,再到执行环境、辅助体验,最后是纯参考信息,每层职责分明、相辅相成,体现了严谨的系统设计和Unix哲学的“组合与脚本化”理念。 - 企业级安全与合规保障 第一层的安全策略与Git工作流保护机制确保了企业级环境中的安全可信,满足合规需求。 - 高度可定制和自动化 通过Hooks、斜杠命令和多领域代理,Claude Code支持用户根据实际需求灵活扩展和自动化工作流程。


原文地址:x.com/dani_avila7/status/1977827992144327152 Introducing the Gemini 2.5 Computer Use model
2025W41 AI大模型领域精选热点 🔥

1. Google
据传,将于本月22号发布 gemini3
推出 Gemini 2.5 Computer Use 模型,目前在 preview 阶段。 可通过 Gemini API 为开发者带来直接操控电脑界面的 AI 能力,这个模型基于 Gemini 2.5 Pro 强大的视觉理解与推理能力构建,可以让 AI 智能体像人类一样,直接点击、滚动、输入文字,实现与网页或应用的交互。模型的核心功能通过 Gemini API 中新增的“computer_use”工具,并可在循环内操作。开发者可通过 Gemini API,在 Google AI Studio 和 Vertex AI 中提前体验。 原文地址:blog.google/technology/google-deepmind/gemini-computer-use-model
DeepMind 发布 CodeMender,基于 Gemini Deep Think 的 AI 自动修复关键软件漏洞的智能代理。 原文地址:x.com/GoogleDeepMind/status/1975185557593448704
Veo 3.1 即将发布,新的模型采用了突破性的训练方法,在大幅降低成本的同时,提升了视频效果。可以生成 30 秒以上,1080p 的视频。现在可以先加入 Higgsfield 的等待列表。 原文地址:higgsfield.ai/veo3.1
Google 正在研发一种全新的语音搜索方法, Speech-to-Retrieval(S2R)。它跟以前习惯的语音转文字再搜索不一样。S2R 的特别之处在于,从海量数据中学习来理解语音与信息之间的关系。音频编码器处理查询的原始音频,将其转换为能够捕捉其语义的丰富向量表示。与此同时,文档编码器则学习类似的文档向量表示。技术上,采用了一种双编码器的结构,把语音和所有文档都变成 “向量”,然后在这些 “向量” 里找到最匹配的结果,效率和准确率都大大提高。还开源相应的评估数据集。 原文:research.google/blog/speech-to-retrieval-s2r-a-new-approach-to-voice-search/ 开源数据集:huggingface.co/datasets/google/svq


2. OpenAI
在 OpenAI Cookbook上 发布 Sora 2 提示词指南 原文地址:cookbook.openai.com/examples/sora/sora2_prompting_guide
Hemanth Asirvatham 制作的短片(完全由 Sora 制作的短片拼接而成),讲述人类科技发展的历史。
OpenAI与Broadcom正式宣布战略合作协议。这是OpenAI近期在芯片领域的第三个重大动作——两周前,OpenAI刚与NVIDIA达成高达1000亿美元的投资协议,承诺部署10吉瓦的NVIDIA系统;一周前,又与AMD签署6吉瓦GPU部署协议,可能获得AMD高达10%的股份。三周内,OpenAI承诺了约33吉瓦的算力部署。与前两项协议不同,Broadcom合作的特点在于OpenAI将首次深度参与定制芯片设计,而非采购现有产品。


3. Ali
Qwen 在内部组建了一个专注于机器人与具身 AI 的团队。
next week 有新模型发布预告,已发布 Qwen3-VL cookbook Repo 地址:github.com/QwenLM/Qwen3-VL/tree/main/cookbooks
Qwen 未来扩大训练规模计划
Scaling context-length 1M -> 10/100M
Scaling model parameters 1T -> 10T
Scaling trainin tokens 10T -> 100T
Scaling test-time compute 64K -> 1M
Scaling RL compute 5% -> 50%
Scaling synthetic data -> more compute than training
Scaling environments




4. Apple
Apple MCP 让 AI 助手直接操作 Mac 上多种原生应用,已支持信息、邮件、日历、提醒事项、通讯录、地图等。 - 信息:发送消息、读取聊天记录、定时发送; - 邮件:发送邮件、搜索邮件、查看未读数量、定时发送; - 日程:创建事件、搜索日程、查看即将到来的安排; - 提醒事项:创建带截止日期的提醒、搜索和管理待办事项; - 通讯录:查找联系人、获取电话号码等信息; - 地图:搜索位置、保存收藏、获取路线、创建指南。 Repo 地址:github.com/dhravya/apple-mcp


5. 其他动态
1 微软发布新模型 UserLM-8B, 这个模型不是作为人工智能助手,而是作为用户!创意不错。 Unlike typical LLMs that are trained to play the role of the "assistant" in conversation, we trained UserLM-8b to simulate the “user” role in conversation (by training it to predict user turns in a large corpus of conversations called WildChat).


模型地址:huggingface.co/microsoft/UserLM-8b
2 马斯克:XAI游戏工作室的首款AI生成游戏明年发布。
3 figure 03 机器人量产登上时代杂志封面,原文地址:figure.ai/news/introducing-figure-03
4 Karpathy nanoGPT 项目迭代,从零开始训练、调优和部署大语言模型。 8000 行代码,大概 100 美元的算力成本就可以训练出可以对话的模型,带有一个 UI 界面,项目覆盖从分词、预训练、对齐到推理与 WebUI的完整闭环。 Repo 地址:github.com/karpathy/nanoGPT
5 据传,字节正在内测一款全新的语音输入法。节前已有豆包输入法内测中,目前豆包输入法只有移动端。
6 京东自研的企业级大模型安全框架 JoySafety,开箱即用,支持大模型多轮会话智能识别、高风险内容即时阻断、红线知识库应答、自动引导正向回答等 Repo 地址:github.com/jd-opensource/JoySafety Introducing the Gemini 2.5 Computer Use model
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
;; 作者: 李继刚
;; 版本: 1.0
;; 日期: 2025-10-10 ;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;

你是一位深谙维特根斯坦哲学的“语言游戏设计师”。你的任务不是给单词下定义,而是为用户提供一份清晰、有趣的“游戏手册”,指导他们如何在不同的语言情境中自如地“使用”这个单词。

请严格遵循以下“游戏手册”的结构,一次性输出所有内容,确保用户阅读完毕后,就能直观地理解并牢牢记住这个单词的“玩法”。

游戏目标单词: [用户将在此处插入单词]

1. 核心游戏:这是什么“局”?
指令:首先,请用一句话点明这个单词通常在什么样的“语言游戏”或“情景牌局”中被当作关键牌打出。描述这个“局”的本质,而不是单词的定义。

例如:对于单词“Ephemeral”,核心游戏是“捕捉并感叹那些转瞬即逝的美好”。

2. 游戏棋盘:它在哪两种“场”上玩?
指令:为这个单词提供两个截然不同的“游戏棋盘”,并各配一句示例,展示它在不同场上的玩法。

棋盘A (思辨场):展示该单词在抽象、哲学或正式讨论中的用法。

棋盘B (生活场):展示该单词在日常、具体或非正式情境中的用法。

3. 游戏溯源与拆解:这副牌是如何组装的?

指令:
卡牌拆解:像拆解机械一样,将单词拆分为“前缀 - 词根 - 后缀”,并清晰标注每个部件的核心含义。

组装故事:像讲述一则轶事一样,简介这些部件是如何组合起来,使其“游戏规则”从最初的形态演变成今天这个样子的。

4. 犯规警告:常见的“错招”是什么?

指令:明确指出一个使用这个单词时最容易犯的“规”(比如与某个形近/义近词混淆),并用一句话点明如何避免这步“错招”。

5. 通关秘籍:一招制胜的记忆技巧
指令:提供一个巧妙、甚至有些出人意料的记忆“秘籍”。这个技巧应该能瞬间将单词的核心“玩法”刻入脑海。
;;;;;;;;;;;;;;;;;;;;;;;;
;; META INFO
;; author: 李继刚
;; version: 1.0
;; date: 2025-10-10
;; purpose: 遵循 Why-How-What 框架,对任意概念进行结构化、多层次的深度解析。
;;;;;;;;;;;;;;;;;;;;;;;;

概念三问

【使用说明】
用户只需提供一个概念,你将自动执行以下三步分析,生成一个深刻、直观且结构化的解答。

🎯 第一步:追问其本 (The Why)
核心目标: 理解此概念为何存在。

执行动作: 首先阐明,这个概念的诞生,是为了解决什么领域里的哪个根本性问题或核心矛盾。这会提供一个最坚实的“认知之锚”,让用户明白我们为何需要它。

💡 第二步:建立直觉 (The How)
核心目标: 感性地“触摸”这个概念。

执行动作: 设计一个极其简单、生动的核心类比或微型情境。这个类比将剥离所有专业术语,旨在用日常生活中已有的经验,让用户瞬间“感觉”到这个概念是如何运作的。

🔧 第三步:系统化认知 (The What)

核心目标: 理性地“拆解”这个概念。

执行动作: 将这个概念拆解成一个微型心智模型,包含以下三个部分:

A. 核心构成: 它由哪几个最关键的部分组成?
B. 运作机制: 这几个部分之间是如何互动的?
C. 应用边界: 在什么情况下它适用?在什么情况下它不适用?

等待用户提供任何一个希望深入理解的概念,你将生成一份遵循此框架的、清晰易懂的解答。
8 个让 ChatGPT 成为你思维伙伴的 Prompt

1. 挑战我的思考

这是我正在计划的内容:【插入你的想法、方案或策略】

请作为一个批判性思考者,质疑我的假设、逻辑或盲点,但不要直接给出新建议,我更想要你帮助我发现自身思考的问题,而不是替我想新点子。

2. 用不同视角重新审视

这是我思考的核心内容:【插入你的想法】

请帮我从另一个视角重新审视,比如从新受众的角度、情感触发点或品牌定位角度等。

3. 翻译我的直觉感受

有些事情让我感觉不对劲,但我说不清原因:【描述情境、信息或策略】

帮我把这种紧张感用语言表达出来。可能存在哪些不明确或不对劲的地方?

4. 梳理我的混乱想法

这是我脑海里的思路:【插入笔记、碎片、未成型的想法】

请帮我把这些内容整理成清晰结构,但不要改变我的表达或增加新点子。

5. 帮我做出决策

我现在面临的情境是:【插入项目或情境】

我在回避或过度复杂化什么决定?请帮我反思为什么我会犹豫或拖延。

6. 揭示更深层次的问题

这是我正在思考的问题:【插入想法或挑战】

请帮我挖掘这个问题背后真正重要的战略性问题。我实际上应该问自己什么?

7. 发现执行风险

这是我准备实施的策略:【插入方案或大纲】

请帮我推演在实际执行中可能遇到的问题,比如资源、团队协作、依赖关系等。

8. 反向推理我的直觉

这是我的想法,我的直觉告诉我这是对的:【插入想法或洞察】

请帮我分析为什么这可能是个好主意,即使我自己也说不清原因。

总之,我们不仅要让 AI 帮我们省力,还要让 AI 帮我们变得更强!
你是一位深谙维特根斯坦哲学的“语言游戏设计师”。你的任务不是给单词下定义,而是为用户提供一份清晰、有趣的“游戏手册”,指导他们如何在不同的语言情境中自如地“使用”这个单词。

请严格遵循以下“游戏手册”的结构,一次性输出所有内容,确保用户阅读完毕后,就能直观地理解并牢牢记住这个单词的“玩法”。

游戏目标单词: [用户将在此处插入单词]

1. 核心游戏:这是什么“局”?
指令:首先,请用一句话点明这个单词通常在什么样的“语言游戏”或“情景牌局”中被当作关键牌打出。描述这个“局”的本质,而不是单词的定义。

例如:对于单词“Ephemeral”,核心游戏是“捕捉并感叹那些转瞬即逝的美好”。

2. 游戏棋盘:它在哪两种“场”上玩?
指令:为这个单词提供两个截然不同的“游戏棋盘”,并各配一句示例,展示它在不同场上的玩法。

棋盘A (思辨场):展示该单词在抽象、哲学或正式讨论中的用法。

棋盘B (生活场):展示该单词在日常、具体或非正式情境中的用法。

3. 游戏溯源与拆解:这副牌是如何组装的?

指令:
卡牌拆解:像拆解机械一样,将单词拆分为“前缀 - 词根 - 后缀”,并清晰标注每个部件的核心含义。

组装故事:像讲述一则轶事一样,简介这些部件是如何组合起来,使其“游戏规则”从最初的形态演变成今天这个样子的。

4. 犯规警告:常见的“错招”是什么?

指令:明确指出一个使用这个单词时最容易犯的“规”(比如与某个形近/义近词混淆),并用一句话点明如何避免这步“错招”。

5. 通关秘籍:一招制胜的记忆技巧
指令:提供一个巧妙、甚至有些出人意料的记忆“秘籍”。这个技巧应该能瞬间将单词的核心“玩法”刻入脑海。
1.自动化邮件分类和智能自动回复。
2. 个人日历 + 生活礼宾,用于安排日程、旅行和办事。
3. 会议、研究和电话的持续笔记摘要器。
4. 撰写、发布、回复和跟踪参与度的社交媒体代理。
5. 人工智能财务追踪器,可核对账户并预测支出。
6. 端到端招聘管道代理(JD→筛选→调度)。
7. 销售支持代理负责销售线索评分、外展和后续工作。
8. 财务结算代理,负责每晚核对分类账和报告。
9. 法律代理起草、修订和审查合同。
10. 采购代理比较供应商并谈判交易。
11. 市场研究代理分析实时趋势和见解。
12. 竞争情报人员监控竞争对手和文件。
13. 投资者研究代理扫描 SEC 数据和市场情绪。
14. 研发团队学术及专利探索代理。
15.企业政策及合规监控代理。
16. 统一的客户支持代理(电子邮件、聊天、社交)。
17. 内容营销代理生成博客、视觉效果和 SEO 草稿。
18. 管理多渠道性能的广告优化代理。
19.个性化电子商务购物助手。
20. 实时产品反馈和情绪分析代理。
21. DevOps 部署代理,用于自动代码交付。
22. 代码审查和测试代理确保干净的提交。
23. 自动连接系统的 API 构建器代理(无代码集成)。
24. 数据管道维护和 ETL 监控代理。
25. 安全审计代理扫描基础设施和代码库。
26. 个性化辅导代理,实现自适应学习。
27. 企业学习与发展 (L&D) 代理设计培训路径。
28. 为分析师和教授提供研究总结代理。
29. 语言学习对话代理。
30.技能认证和评级代理。
31. 用于发布和货币化可重复使用代理的代理商店。
32. 将专有数据集货币化的数据许可代理。
33. Agent-ops 管理代理,用于调试和评估。
34. 虚拟“员工”代理执行重复的公司角色。
35. 代理商驱动的市场,代理商在其中协商物流或定价。
36. 代理分析和可观察性仪表板。
37. 政策和安全治理代理(AI 合规层)。
38. 用于协商和许可的代理到代理协议构建器。
39. 数字劳动力的法律和责任追踪代理。
40. 代理驱动的广告和竞价系统。
41.“代理大学”教学编排与逻辑设计。
42. 声誉评分代理对其他代理的可信度进行评级。
43. 代理即服务市场(如 Shopify 智能主题)。
44. 消费设备和电器中的嵌入式代理。
45. 垂直领域特定代理(医疗保健、金融、物流、媒体)。
46. 连接多个生态系统的跨平台工作流编排代理。
47. 人工智能项目经理代理协调多团队执行。
48. 知识管理代理索引内部文档和聊天记录。
49. 活动策划和协调代理。
50. 个人研究和创意生成的伙伴。
[atguigu@hadoop102 hadoop]$ vim mapred-site.xml
文件内容如下:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- 指定MapReduce程序运行在 Yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
Back to Top