使用 Chainlink 服务打破信任困境:在金融服务中克服 LLM 的幻觉问题
2025-01-07 18:00
Chainlink
2025-01-07 18:00
订阅此专栏
收藏此文章


作者:Laurence Moroney(Chainlink 顾问、前 Google 人工智能负责人)

本文为 Laurence Moroney 的特约文章。


近些年来,大型语言模型(LLM)已然成为人工智能(AI)的代名词,引发了巨额投资和高度关注。然而,这些令人印象深刻的能力背后,却存在一个严重的隐患——“幻觉”(hallucination),即生成虚假或误导性信息的倾向。在高风险领域(如金融服务业)中,这种现象会引发严重的信任问题和合规风险,也因此为能够克服该难题的技术手段创造了巨大机遇。此时,AI 技术与区块链等内嵌信任与完整性的技术的结合,或许正是解决方案之所在。


接下来,我们将先探讨 LLM 幻觉问题的本质,再阐述为何 Chainlink、Euroclear、Swift 与六家金融机构联手发起的新举措对行业具有变革意义。


理解 LLM 的幻觉问题


大型语言模型本质上是预测文本或数据的工具。它们在海量文本数据上训练,采用 Transformer 架构来学习序列间的关联关系。OpenAI 的 GPT、Google 即将推出的 Gemini、以及 Anthropic 的 Claude 等模型已经在“人工理解”与文本生成方面表现出卓越的能力。然而,由于它们并非真正理解输出的语义,只是基于统计概率预测下一个最可能出现的词元,因此在信息的准确性上存在盲点。


举个例子:英文儿童歌曲中的一句——“如果感到幸福”。很多人直觉地会接下去唱出 “你就拍拍手”。Transformer 模型的工作原理就是如此。但在有些国家的文化中,下一句并不是“你就拍拍手”,而是直接接着“拍拍手”,从而形成 “如果感到幸福拍拍手”。模型根据训练语料的统计分布决定下一个词元的概率,所以若在训练文本中大多数是 “拍拍手” 而不是 “你就”,模型就会优先选择 “拍拍手”。


对于熟悉的短语尚且如此,那么当模型面对前所未闻的新闻故事或最新的公司决策(如某公司最新宣布的股票拆分)时会怎样?模型在其训练数据中可能见过类似表述无数次,但随后词元的实际值各不相同——有“二十比一”、“十比一”或“一比十”等等。模型会根据最多出现的情况进行预测输出。如果现实中公司宣布的是“六比一”拆分,而模型却因为统计占优而输出“十比一”,这就是一个“幻觉”了。


即使我们的使用场景并非让 LLM 去创作内容,而是让其解析现有文档——比如读取 PDF 文件中提及的股票拆分信息并回答问题——这种幻觉风险仍然存在。因为当 LLM 回答关于 PDF 内容的问题时,最终输出仍是基于其统计预测而非真正理解,即便原文档明确写着“六比一”也可能被误输出为“十比一”。


幻觉在金融服务中的风险


对于金融机构而言,盲目信任 LLM 是一场危险的赌博,因为错误输出可能导致:

  • 决策失误:不准确的数据可能导致风险评估偏差、投资策略失准和资本配置低效。

  • 监管和报告问题:虚假信息可能导致非故意的监管违规和报告错误。

  • 信任度下降:若客户和利益相关方发现某机构依赖不可靠的 AI 信息,它的声誉与信任将受到严重损害。

  • 经济损失:基于错误预测和建议可能导致巨额经济损失。


因此,将 LLM 完全整合进金融核心流程的风险巨大。在数据和建议需要高精准、高可信度的金融服务领域,目前的 LLM 技术状态难以放心应用。


区块链:通往信任与可验证性的路径


虽然 LLM 存在准确性和可靠性问题,但区块链技术以信任和可验证性为核心特征,为解决方案提供了可能性。区块链的去中心化和不可篡改分类账系统能够记录并验证信息,从而帮助降低 LLM 幻觉风险。让我们从“共识”这一概念入手探讨其可行性。


共识:建立信任的方法


科学研究的流程从一个理论开始,通过实验证据支持,并经过可信同行的评议形成共识。当大多数同行认同实验数据并认为理论成立,这一科学发现便成为了当前的公认真理。


Chainlink 借鉴这一流程设计了一种创新手段来降低 LLM 幻觉风险。他们使用多个 LLM,让它们分别解析同一企业行为信息,并将结果输出为可机器读取的 JSON 格式。与其依赖单个 LLM 的单次提示,不如采用多个 LLM 和多组提示相结合的“蜂群”式方法,以产生多组结果。


随后对这些结果进行共识判断:如果所有模型输出的结果一致性很高,即可初步信任,并将结果写入区块链,形成统一且权威的“统一客观记录”(golden record)。这是一种可验证、持久、可更新、且在多条区块链之间互操作的数据容器。如果共识未达成,则由人工干预确定事实真相,再将其作为统一客观记录上链。


这一过程显著降低了幻觉风险,从而增强自动化流程的可信度并降低成本。而数据上链后,各方可持续信任该数据,形成可信的端到端流程,将非结构化数据转化为高度可信的统一客观记录。这大部分环节可以自动执行,不仅提高了可信度,还降低了在金融服务中使用 LLM 的成本和风险。


行业案例:Chainlink、Euroclear、Swift

和金融机构的联合探索


Chainlink 与 Euroclear、Swift 及六家大型金融机构合作开展了一项行业试点,通过这一创新方案验证了流程的有效性。该项目展示了如何自动化地将非结构化金融数据转化为链上统一客观记录,并在这一过程中减少了 LLM 幻觉的风险。


当前,企业行为数据的披露缺乏标准化,企业需要投入大量人力来读取各种类型的文件以理解相关数据。调查显示,75% 的企业不得不对这些数据进行人工再验证,这种低效流程每年让企业损失数百万美元。


利用 AI、预言机和区块链革新资产服务


Chainlink 在《利用 AI、预言机和区块链革新资产服务》这份资料中详细介绍了其解决方案的原型成果,包括:

  • 数据提取与结构化:该流程能从上市公司源获取非结构化数据,并转化为符合 SPMG 等监管框架要求的结构化数据。

  • 共识框架:通过对多个 LLM 输出结果进行对比,形成共识,从而大幅提升数据可靠性并降低幻觉风险。

  • 近乎实时的数据分发:一旦确认共识数据,Chainlink 的试点项目便可将其在多条区块链生态中发布并存储为链上统一客观记录。如此,市场参与者可便捷地访问这些数据,并在其上构建新的应用。


结语


我们正处于 AI 革命的初期阶段,类似于互联网拨号时代的早期。随着新颖解决方案的不断出现来解决现存的问题,我们更有机会来创造更多、更佳的解决方案。


在本研究中,AI 与 LLM 的强大潜力因为幻觉风险而受限。但通过数据提取共识和在可信可验证的区块链上发布结果的创新手段,有望释放这些潜能。随着 LLM 的不断演化与提升,通过驱动共识并将验证后的共识信息上链形成统一客观记录的基础架构,将持续展现其价值。


Chainlink 本次的行业试点项目正是这一潜在解决方案的早期雏形,预示着 AI、区块链与金融服务领域未来将有更多机会协同进化,共同创造更完善的生态体系。




END



获取 Chainlink 官方最新资讯


加入 Chainlink 官方渠道▼

了解及集成 Chainlink 预言机服务请联系▼

Chainlink 官方渠道
微博:  https://weibo.com/chainlinkofficial
知乎:https://www.zhihu.com/people/chainlink
中文 Twitter: https://twitter.com/ChainlinkCN
Twitter:  https://twitter.com/chainlink
中文爱好者电报群:https://t.me/chainlinkfans
Telegram:  https://t.me/chainlinkofficial
Discord:   https://discord.gg/aSK4zew
GitHub:  https://github.com/smartcontractkit/chainlink
SegmentFault:https://segmentfault.com/u/chainlink
QQ 群: 6135525
合作联系:  china@smartcontract.com

点击“阅读原文”  查看更多

【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

Chainlink
数据请求中
查看更多

推荐专栏

数据请求中
在 App 打开