Web3 和区块链技术远远超出了比特币和 NFT。随着企业越来越意识到 Web3 的可能性,一项功能将发挥重要作用:智能合约。
智能合约以自动化、开放且值得信赖的方式强制执行用户之间的协议。它们以代码编写并在链上运行,可以用来代替需要大量文书工作和人工批准的脆弱的、高接触性的信任关系。
Ari Juels 是威尔家族基金会、康奈尔理工学院和康奈尔大学的 Joan 和 Sanford I. Weill 教授、加密货币和合约计划(IC3)联合主任以及Chainlink 实验室的首席科学家。他也是 2024 年加密惊悚小说《The Oracle》的作者。
劳伦斯·莫罗尼 (Laurence Moroney) 是一位屡获殊荣的研究员、畅销书作家和 Google 人工智能倡导者。他在哈佛大学、Coursera 和Deeplearning.ai教授多门热门人工智能课程,目前正在制作一部关于技术与政治交叉的好莱坞电影。
然而,用代码表达协议是一把双刃剑。原始代码——尤其是用流行的智能合约语言Solidity编写的代码——缺乏解释人类通信所需的自然语言处理能力。因此,大多数智能合约遵循技术或金融专家使用的严格的成文规则也就不足为奇了。
输入大型语言模型(LLM)。我们都熟悉像ChaPT这样的应用程序,它们提供了 LLM 系列的底层智能、推理和语言理解的接口。想象一下将这种底层智能与智能合约集成!法学硕士和智能合约一起工作可以解释自然语言内容,例如法律法规或社会规范的表达。这为通向由人工智能提供支持的更加智能的智能合约打开了大门。
但在加入这股潮流之前,**先探讨一下智能合约和人工智能交叉领域的挑战,特别是在可靠性和安全性方面。
两大挑战:模型不确定性和对抗性输入
当您今天使用应用程序与法学硕士聊天时(例如 ChaPT),您与模型的交互几乎不透明。模型版本可以随着新的训练而悄然改变。而且您的提示可能会在幕后被过滤(即修改)——通常是为了保护模型供应商,但代价是改变您的意图。使用法学硕士的智能合约会遇到这些问题,这违反了其透明度的基本原则。
想象一下,Alice 出售基于 NFT 的现场音乐会门票。她使用由法学硕士支持的智能合约来处理业务物流并解释取消政策等指令:“至少提前 30 天取消以获得全额退款。”
一开始这很有效。但假设基础法学硕士在接受新数据培训后进行了更新——包括有关活动票务的当地法律的拼凑。合约可能会在爱丽丝不知情的情况下突然拒绝先前有效的回报或允许无效的回报!结果是:客户感到困惑,Alice 仓促进行人工干预。
另一个问题是,有可能欺骗法学硕士,并通过精心设计的提示故意导致他们破坏或绕过其安全措施。这些提示称为对抗性输入。随着人工智能模型和威胁的不断发展,对抗性输入被证明是人工智能的一个顽固的安全问题。
假设爱丽丝引入了退款政策:“重大天气或航空公司相关事件退款”。她只是通过允许用户提交自然语言退款请求以及由网站指针组成的证据来实施此政策。然后可以想象,恶意行为者可以提交对抗性输入——虚假的退款请求,巧妙地劫持运行 Alice 智能合约的法学硕士的控制权来窃取资金
认证的3个支柱
我们相信三种认证将是LLM在智能合约中安全使用的关键。
首先,是对模型的认证——包括法学硕士。 ML 模型的接口应携带值得信赖的唯一接口标识符,准确指定模型及其执行环境。只有有了这样的标识符,用户和智能合约创建者才能确定法学硕士现在和未来的行为方式。
其次,对法学硕士的输入进行身份验证,这意味着确保输入对于给定目的是可信的。例如,为了决定是否退还购买的机票,Alice 的智能合约可能不接受用户的原始自然语言请求,而只接受指向值得信赖的天气和航空公司信息网站的指针,其数据由底层 LLM 解释。此设置可以帮助过滤掉对抗性输入。
**,还有用户的身份验证。通过让用户提供值得信赖的凭据或进行付款(**以保护隐私的方式进行),可以过滤、限制或以其他方式管理滥用行为的用户。例如,为了控制向她的(计算成本昂贵的)LLM 发出的垃圾邮件请求,Alice 可能会限制与付费客户的交互。
要实现身份验证的三大支柱,还有大量工作要做。好消息是当今的 Web3 技术(例如Oracle)是一个坚实的起点。预言机已经将智能合约的输入验证为来自值得信赖的网络服务器。用于保护隐私的用户身份验证的Web3工具正在兴起。
随着生成式人工智能越来越多地应用于商业,人工智能社区正在应对各种挑战。随着人工智能开始为智能合约提供动力,Web3 基础设施反过来可以为人工智能带来新的安全性和可靠性工具,这个循环将使人工智能和 Web3 的交叉实现大规模互惠互利。
文章链接:https://www.btchangqing.cn/653727.html
更新时间:2024年04月24日
本站大部分内容均收集于网络,若内容若侵犯到您的权益,请联系我们,我们将第一时间处理。