Hello Agents | 第二章习题 #454
Unanswered
matrixcloud
asked this question in
💬 Exercises & Q&A
Replies: 6 comments 1 reply
-
|
有人吗? |
Beta Was this translation helpful? Give feedback.
0 replies
-
|
没人啊 |
Beta Was this translation helpful? Give feedback.
0 replies
-
|
有人啊 |
Beta Was this translation helpful? Give feedback.
0 replies
-
|
好精髓啊,没人做题么 |
Beta Was this translation helpful? Give feedback.
0 replies
-
|
111 |
Beta Was this translation helpful? Give feedback.
0 replies
-
|
有人看11章么,迷迷糊糊看不进去 |
Beta Was this translation helpful? Give feedback.
1 reply
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
-
1. 物理符号系统假说
该假说的"充分性论断"和"必要性论断"分别是什么含义?
结合本章内容,说明符号主义智能体在实践中遇到的哪些问题对该假说的"充分性"提出了挑战?
大语言模型驱动的智能体是否符合物理符号系统假说?
不符合。首先大语言模型,不是预先定义符号和规则,而是数据及其后天学习到的权重,这直接否定了其必要性论断。
2. 对专家系统MYCIN未大规模应用于临床实践的思考
a. 除了本章提到的"知识获取瓶颈"和"脆弱性",还有哪些因素可能阻碍了专家系统在医疗等高风险领域的应用?
首先,现实情况远远比预先定下的规则复杂和变化多端,专家系统难以维护和更新固有知识库;其次,难以对误判定责,是机器的责任还是人的责任;再则,专家系统无法针对病人各方面的特殊情况进行比对和分析,因为规则太死了。
b. 如果让现在的你设计一个医疗诊断智能体,你会如何设计系统来克服MYCIN的局限?
首先可以定义有限的、基本的、通用的、基本不变的医学规则来对病人进行简单的分诊归类,这样可以避免太复杂的规则更新维护和计算,而只是做最简单的分诊归类。其次需要为病人建立完整的疾病数据历史,系统应该能够根据历史分析推断,为医生提供建议咨询,医生可以反问系统的推理过程,辅助医生进行诊断,提高医生的诊断效率。
c. 在哪些垂直领域中,基于规则的专家系统至今仍然是比深度学习更好的选择?请举例说明。
3. 扩展ELIZA聊天机器人
4. 马文·明斯基的"心智社会"理论
a. 在图2.6"搭建积木塔"的例子中,如果 GRASP 智能体突然失效了,整个系统会发生什么?这种去中心化架构的优势和劣势是什么?
如果 GRASP 失效,整个系统将直接崩溃无法搭建积木。这种去中心化的架构是,每个原子执行器逻辑非常简单,各司其职,没有人调控它,所以构造这样一个原子执行器将变得十分容易。但劣势也很明显,就是一旦其中某个节点出问题了,整个系统将无法协调与工作。
b. 将"心智社会"理论与现在的一些多智能体系统(如CAMEL-Workforce、MetaGPT、CrewAI)进行对比,它们之间存在哪些关联和不同之处?
心智社会理论,与现代多智能体系统都强调智能体之间的分工。但是,心智社会理论是非常理性化的想法,每个子智能体都是独立的个体,没有协调者,它们只是被激活然后干活,个体之间无需交流通信,通过涌现表现出来的智能。而现在的多智能体系统都拥有协调者,它们是进行合作,共同完成目标,而不是作为孤立的个体。其中 CAMEL Workforce 通过将任务一层层分解成子任务,让子智能体完成,然后汇总成答案;MetaGPT 的多智能体系统,则是模拟公司运作,每个子智能体风别扮演公司的不同角色,通过 SOP 来完成软件开发。CrewAI 则是通过定义不同角色的子智能体,划分任务,通过组合的形式去完成一个任务。
c. 马文·明斯基认为智能体可以是"无心"的简单过程,然而现在的大语言模型和智能体往往都拥有强大的推理能力。这是否意味着"心智社会"理论在大语言模型时代不再适用了?
并非如此,心智社会是理想思想构建,它的构建路径十分不明确。但是它提出的分工已经去中心化的思想,影响了现代大模型和智能体的发展,可以说现代大语言模型和智能体是对它的具体构建路径的探索。
5. 强化学习与监督学习
a. 用AlphaGo的例子说明强化学习的"试错学习"机制是如何工作的。
AlphaGo 将当前棋盘的状态作为输入,决定下下一步的行动,最后根据一局棋的输赢给于奖励,如果赢则给正向奖励,输则是负向反馈。 AlphaGo 会通过和自己的数百万次对弈,调整策略,学习并获取胜利。
b. 为什么强化学习特别适合序贯决策问题?它与监督学习在数据需求上有什么本质区别?
序贯决策问题,是要求在一个动态系统中获取最大收益,它需要根据根据当前时间状态选择最佳策略,使未来的目标收益最大化。而强化学习就是根据,t 时刻的状态来选择策略,执行动作,并获得奖励,它通过无数次试错,调整策略,从而收敛至目标收益最大,那么回溯回去的每个选择就是最佳策略,非常适合解决序贯问题。监督学习的数据需要标签告诉 ai 这是什么,而强化学习则是通过试错,它的数据则时序上的状态表示。
c. 现在我们需要训练一个会玩超级马里奥游戏的智能体。如果分别使用监督学习和强化学习,各需要什么数据?哪种方法对于这个任务来说更合适?
对于训练一个会玩草鸡马里奥的智能体,更适合使用强化学习,因为游戏环境是动态的,只学习有限的通过玩法是无法应对的,且没办法穷尽所有通关玩法。而强化学习则不同了,它可以通过无数次试错动态调整策略,打出自己的通关玩法。
d. 在大语言模型的训练过程中,强化学习起到了什么关键性的作用?
没有 RL 的模型只是基于训练数据的统计规律生成回答,缺乏对"好坏对错"的判断力;RL 通过人类反馈教会它价值观,在生成过程中主动优化出更有益、更安全的回答。
6. 预训练-微调范式
a. 为什么说预训练解决了符号主义时代的"知识获取瓶颈"问题?它们在知识表示方式上有什么本质区别?
符号主义是通过专家们由上至下大量地显式编码,工作量巨大,几乎不可能完成,并且其中隐形的人类知识无法编码。而预训练是通过大量的已存在互联网上的数据,借助自监督学习自动学习知识。符号主义的知识通过硬编码的符号和规则表示,而预训练的通过权重表示,突破了人工编码的极限。
b. 预训练模型的知识绝大部分来自互联网数据,这可能带来哪些问题?如何缓解以上问题?
互联网上的数据充斥着大量自相矛盾、不符事实、偏见、隐私及不合规合法的数据,可能让模型的回答产生幻觉和输出不合规不合法的内容。首先在训练数据上做基本数据的清洗,其次在后训练过程中,可以采用强化学习让模型学会判断,最后在模型输出的时候,可以通过工具来获取更精准的答案。
c. 你认为"预训练-微调"范式是否可能会被某种新范式取代?或者它会长期存在?
有可能被新的范式取代,"预训练-和微调"这样的范式面临数据污染和枯竭,资源能耗不断攀升,知识具有滞后性等问题。这个范式可能像之前的范式一样,成为一个基准范式,演化出其他新的范式处理。当然,“预训练-微调”,归根结底只是目前来说对探索人工智能的一种方式,它很可能被另外一些范式替代。
7. 设计一个"智能代码审查助手",它能够自动审查代码提交(Pull Request),概括代码的实现逻辑、检查代码质量、发现潜在BUG、提出改进建议。
a. 如果在符号主义时代(1980年代)设计这个系统,你会如何实现?会遇到什么困难?
用户代码 --> 转换成语法树 --> 根据人工硬编码的知识库 --> 推理出代码可能出现的问题首先这个方法无法泛化,比如专家编写的 c 语言的知识库无法应用到非 c 语言上,其次符号主义无法理解代码在业务上的逻辑,如果语言添加新特性,知识库也难以维护和更新。
b. 如果在没有大语言模型的深度学习时代(2015年左右),你会如何实现?
可以通过监督学习,使 ai 能够识别坏味道的代码,其次也可以结合构建有限的,普遍通用的知识库,使用符号主义来对明显的错误进行判断。
c. 在当前的大语言模型和智能体的时代,你会如何设计这个智能体的架构?它应该包含哪些模块(参考图2.10)?
d. 对比这三个时代的方案,说明智能体技术的演进如何使这个任务从"几乎不可能"变为"可行"
符号主义时代,人们只能通过预编码的规则存在知识获取困难,知识库难以维护,语义无法理解等诸多问题。深度学习时代,存在上下文窗口受限,知识固化于参数,缺乏显式因果推理链等问题。LLM时代,模型基于大规模预训练内置了通用代码知识,通过RAG检索项目特定规范和工具调用获取实时上下文,实现零样本/少样本适应,另外 LLM 可以通过 CoT 对推理进行解释,通过 Reflection 实现自我修正和深度验证。
Beta Was this translation helpful? Give feedback.
All reactions