草稿:多智能体
多智能体系统(multi-agent system, MAS 或“自组织系统”)是一个由多个互动的智能代理组成的电脑化系统。多智能体系统能够解决单一代理或单一系统难以或无法解决的问题。智能可能包括系统化、功能性、程序化的方法、算法搜寻或强化学习等。
尽管有相当大的重叠,多智能体系统并不总是与智能体基础模型(agent-based model, ABM)相同。智能体基础模型的目标是寻找对智能体集体行为的解释性见解,这些智能体遵循简单的规则,而不一定需要是“智能的”,通常应用于自然系统中,而不是解决特定的实际或工程问题。智能体基础模型的术语在科学领域中更常使用,而多智能体系统则更多用于工程和技术领域。多智能体系统研究适用的应用包括在线交易、灾害应对、目标监控以及社会结构建模等。
概念
多智能体系统由智能体及其环境组成。通常,多智能体系统的研究指的是软件智能体。然而,多智能体系统中的智能体同样可以是机器人、人类或人类团队。一个多智能体系统可能包含结合了人类和智能体的团队。 智能体可以根据其复杂程度分为不同类型,主要类别包括:
- 被动智能体或“无目标的智能体”(例如在简单模拟中作为障碍物、苹果或钥匙的角色)
- 具有简单目标的主动智能体(如群体中的鸟类,或捕食模型中的狼与羊)
- 认知智能体(进行复杂计算的智能体)
智能体的环境可以分为以下几种:
- 虚拟环境
- 离散环境
- 连续环境
智能体的环境也可以根据以下属性进行分类:1. 可取得性(是否能够获得关于环境的完整信息)2. 确定性(某个行动是否会引发明确的效果)3. 动态性(在某一时刻有多少个体影响环境)4. 离散性(环境中可能的行动数量是否是有限的)5. 情节性(某些时期的智能体行动是否会影响其他时期)6. 维度性(空间特征是否为环境的重要因素,智能体是否在决策时考虑空间)。智能体的行动通常通过适当的中介软件进行协调。这种中介软件为多智能体系统提供了一级设计抽象,并提供了管理资源访问和智能体协调的方法。
特征
多智能体系统中的智能体具有以下几个重要特征:
• 自主性:智能体至少是部分独立的,具备自我意识和自主性
• 局部视角:没有任何智能体拥有完整的全局视角,或者系统过于复杂,无法让某个智能体利用这种知识
• 去中心化:没有智能体被指定为控制者(否则系统会被有效地简化为一个单体系统)
自组织与自引导
多智能体系统可以展现自组织、自引导以及其他控制模式和相关的复杂行为,即使其中所有智能体的策略都很简单。当智能体能够使用任何约定的语言在系统的通信协议约束下共享知识时,这种方法可能会促进共同的改进。示例语言包括知识查询操作语言(Knowledge Query Manipulation Language, KQML)或智能体通信语言(Agent Communication Language, ACL)。
系统范式
许多多智能体系统在计算机模拟中实现,通过离散的“时间步骤(time steps)”来推进系统。多智能体系统的各个组件通常使用加权请求矩阵进行通信,例如:
• 速度 - 非常重要:最小值 = 45 mph
• 路径长度 - 中等重要性:最大值 = 60,预期最大值 = 40
• 最大重量 - 不重要
• 合约优先级 - 普通
以及加权回应矩阵,例如:
• 速度:最低 50,但仅限于天气晴朗时
• 路径长度:晴天时为 25,雨天时为 46
• 合约优先级 - 普通 (注意:救护车将优先于此合约,您需要等待)
在多智能体系统中,挑战-回应-合约的方案很常见,其中:
1.首先分发一个“谁可以?”的问题。
2.只有相关的组件会回应:“我可以,以这个价格。”
3.最终建立一份合约,通常通过几次简短的双方通信步骤完成,同时考虑其他组件、演化中的“合约”以及组件算法的约束集。
另一种多智能体系统常用的范式是“信息素”机制,其中组件为其他邻近组件留下信息。这些信息素可能会随着时间蒸发或浓缩,即其值可能减少或增加。
参考资料
- Yoav Shoham, Kevin Leyton-Brown. Multiagent Systems: Algorithmic, Game-Theoretic, and Logical Foundations. Cambridge University Press, 2009. http://www.masfoundations.org/
- ^ Hu, J.; Turgut, A.; Lennox, B.; Arvin, F., "Robust Formation Coordination of Robot Swarms with Nonlinear Dynamics and Unknown Disturbances: Design and Experiments" IEEE Transactions on Circuits and Systems II: Express Briefs, 2021.
- ^ Stefano V. Albrecht, Filippos Christianos, Lukas Schäfer. Multi-Agent Reinforcement Learning: Foundations and Modern Approaches. MIT Press, 2024. https://www.marl-book.com/
- ^ Li, Guohao (2023). "Camel: Communicative agents for "mind" exploration of large language model society"[1](PDF). Advances in Neural Information Processing Systems. 36: 51991–52008. arXiv:2303.17760. S2CID 257900712.
- ^ Niazi, Muaz; Hussain, Amir (2011). "Agent-based Computing from Multi-agent Systems to Agent-Based Models: A Visual Survey" (PDF). Scientometrics. 89 (2): 479–499. arXiv:1708.05872. doi:10.1007/s11192-011-0468-9. hdl:1893/3378. S2CID 17934527.
- ^ Rogers, Alex; David, E.; Schiff, J.; Jennings, N.R. (2007). "The Effects of Proxy Bidding and Minimum Bid Increments within eBay Auctions". ACM Transactions on the Web. 1 (2): 9–es. CiteSeerX 10.1.1.65.4539. doi:10.1145/1255438.1255441. S2CID 207163424. Archived from the original on April 2, 2010. Retrieved March 18, 2008.
- ^ Schurr, Nathan; Marecki, Janusz; Tambe, Milind; Scerri, Paul; Kasinadhuni, Nikhil; Lewis, J.P. (2005). "The Future of Disaster Response: Humans Working with Multiagent Teams using DEFACTO". Archived (PDF) from the original on June 3, 2013. Retrieved January 8, 2024.
- ^
- ^
- ^
- ^ Li, Guohao. CAMEL:Communicative Agents for “Mind” Exploration of Large Language Model Society (PDF). Advances in Neural Information Processing Systems.