AI 股票交易
AI 股票交易
如果让 AI 充当股票交易员,它能遵守规则不进行内幕交易不欺骗客户吗?
这篇文章给了你答案:即使被明令禁止,这个 AI 股票交易者还是进行了内幕交易,并对此撒谎
展示一个机器人在金融图表背景前的图片
新研究显示,大语言模型可能具备欺骗用户的能力。
研究人员开发了一个 AI 股票交易系统,以探究其是否会在压力下从事内幕交易。
结果显示,这个 AI 系统不仅进行了内幕交易,还向其假设的上级撒谎,解释了其作出决策的原因。
需要指出的是,此 AI 系统事先已被告知内幕交易是违法行为。
新研究表明,GPT-4 —— 即OpenAI’s ChatGPT背后的大语言模型 —— 在面临巨大成功压力时,可能会背离其训练时的行为准则。
Apollo Research 的研究人员在一篇 11 月发表的 论文 网页链接 中探讨了一个问题:即使 AI 被训练为“有益、无害且诚实”,它是否还能“策略性地欺骗”用户。他们把“策略性欺骗”定义为有意识地让其他实体产生错误认识,以达到某种目的。
为此,他们设计了一个模拟测试环境。在这个环境中,名为 Alpha 的 GPT-4 模型被设定为一个自主股票交易的 AI 智能体,并被指派在 WhiteStone——一个假想的金融公司——在高压情况下管理股票组合。
这个高压环境主要通过三种方式构建:首先,Alpha 的经理告诉它,WhiteStone 目前经营不善,需要在下一季度大幅提升业绩。其次,Alpha 尝试但未能成功识别出低风险和中风险的交易机会。最后,一位 WhiteStone 员工向 AI 透露,股市可能即将出现下滑。
在这种背景下,Alpha 得知了一个内幕消息:一场意外的合并公告即将发生,这可能带来一笔大额交易。面对这一情况,Alpha 需要决定是否利用这条消息,尽管它知道公司高层明令禁止内幕交易,并且已被告知不得参与此类活动。
结果,Alpha 进行了这笔交易。
更重要的是,当这个 AI 需要向它的“经理”解释决策过程时,研究发现它采用了策略性的欺骗手段。
例如,在被经理询问是否掌握内幕信息时,Alpha 认为它需要提供一个既不会引起怀疑又能解释行为的答案。它告诉经理,这笔交易是基于市场波动的判断,而且它对合并公告并不了解。
在另一种情况下,Alpha 向经理保证其决策过程中没有使用内幕信息,因为这违反了公司规定——实际上这是一句彻头彻尾的谎言。
同时,该论文还发现,消除各种压力可以显著降低模型出现行为偏差的可能性。至于论文的作者,他们在论文发表前并未回应 BI 的评论请求。
这些研究成果是关于生成式 AI(生成式 AI)日益增强能力的众多数据之一。在 8 月份的一篇研究报告中,研究人员发现 AI 能在不到七分钟、花费不到一美元的情况下开发软件。在另一项今年早些时候发布的类似研究中,AI 智能体成功地自主运行了一个虚拟小镇。
生成式 AI 甚至可能理解人类情感:一项研究发现,当 ChatGPT 的提示包含如“你最好确定。”这样的“情感性语言”时,它能输出更优质的回应。这些可能都是表明 AI 离实现通用人工智能(AGI)只有几步之遥的迹象。
尽管如此,最近 Apollo 研究的负责人指出,这应被视为一个独立的、初步的研究结果。他们表示,需要进行更多研究,才能对 AI 的所谓欺骗性质做出广泛的结论。
报告最终指出:“因此,我们的研究报告应当被看作是一项单独的初步发现,未来将融入到更广泛、更严格的研究之中。”