Hello Agents | 第一章习题 #450
Unanswered
matrixcloud
asked this question in
💬 Exercises & Q&A
Replies: 0 comments
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
-
1. 请分析以下四个 case 中的主体是否属于智能体,如果是,那么属于哪种类型的智能体(可以从多个分类维度进行分析),并说明理由。
2. 使用 PEAS 模型完整描述智能健身教练。
3. 电商公司的两种退款方案。
Workflow 对于需要精准、快速答案的场景比较适用,而 Agent 更适合需要根据用户行为和记录进行动态调整的场景。
作为负责人我希望能混合使用,对于一般场景和一般用户,在无争议的情况下优先使用 workflow 型,快速而精准。对于存在争议的退款,可以使用 Agent 根据用户的行为记录、退款政策等外界输入等条件来调整,如 Agent 无法解决,可以加入人工裁决和解决。
4. 增强旅行助手 (T->A->O)
a. 添加一个"记忆"功能,让智能体记住用户的偏好(如喜欢历史文化景点、预算范围等)
添加一个变量判断目标是否完成,为历史文化经典、预算范围等偏好添加指针,迭代的每轮记住这些偏好。当迭代结束且目标完成,那么偏好指针所指的内容就是用户这一轮的偏好历史,简单点用个数组保存(暂不考虑落盘)。
b. 当推荐的景点门票已售罄时,智能体能够自动推荐备选方案
首先需要一个集合记录已推荐的景点,其次在 Observation 环节对已售罄情况做判断,如果已售罄那么根据用户选择的天气和地点重新推荐一个不在推荐记录的景点。
c. 如果用户连续拒绝了 3 个推荐,智能体能够反思并调整推荐策略。
添加一个拒绝计数和推荐历史集合,当达到三次的时候,智能体根据推荐推荐历史集合,重新调整推荐策略。
5. 卡尼曼的快速直觉和慢速推理
对于情况十分清晰,满足规则判断时使用快速直觉;对于需要多方收集和边界模糊的情况采用慢速推理。
6. 大模型的局限
a. 为什么智能体或智能体系统有时会产生"幻觉"(生成看似合理但实际错误的信息)?
因为大模型只是在做词语接龙,利用概率预测下一个词,它无法根据事实逻辑来判断生成的真假。其次,它的预测跟它训练的数据十分相关,训练数据中可能存在错误或自相矛盾的内容。
b. 在 1.3 节的案例中,我们设置了最大循环次数为 5 次。如果没有这个限制,智能体可能会陷入什么问题?
如果没有循环限制,智能体可能陷入无限循环。
c. 如何评估一个智能体的"智能"程度?仅使用准确率指标是否足够?
仅使用准确率是不够的,准确率只能说明对用于测试的任务完成的不错。我们需要还需要考虑实际场景的泛化性、安全性、易用性、使用效率、健壮性等多方面指标。
Beta Was this translation helpful? Give feedback.
All reactions