如何监管像ChatGPT和Bard这样的生成式AI机器人

研究表明,通用人工智能工具的广泛应用为监管机构带来新的挑战,他们可能难以应对。实际上,如何监管OpenAI的聊天机器人ChatGPT这样的生成式AI工具,已经成为一个困扰世界各国政策制定者的问题。

ChatGPT可以通过关键字生成任何类型的内容,并接受输入大量知识的训练。其解决方案将涉及评估风险,尤其是其中的某些内容,应该受到严密的监控。

在ChatGPT推出后的两个月,这款AI聊天机器人就成为了历史上用户增长最快的消费产品,仅在今年1月的活跃用户就超过1亿人。这促使全球大型科技公司关注或加快AI系统的推出,并为对话式AI领域带来了新的生机。

微软正在其浏览器、搜索引擎和更广泛的产品系列中嵌入对话式AI;谷歌计划在聊天机器人Bard以及Gmail和谷歌云中的其他集成方面做同样的事情;百度等其他科技巨头也在推出自己的聊天机器人;Jasper和Quora等初创企业也在将生成式AI和对话式AI带入主流消费者和企业市场……

生成式AI加速监管需求

广泛的错误信息和难以发现的网络钓鱼电子邮件为AI的应用带来真正风险,如果将其用于医疗信息,则会导致误诊和医疗事故。如果用于填充模型的不是多样化的数据,也有很高的偏差风险。

虽然微软已经有了一个更准确的重新训练的模型,而且AI21公司等提供商正在努力验证生成的内容与实时数据的对比,但生成AI“看起来真实但完全不准确”的响应的风险仍然很高。

欧盟内部市场专员Thierry Breton近日表示,即将出台的欧盟AI法案将包括针对ChatGPT和Bard等生成型AI系统的条款。

“正如ChatGPT所展示的那样,AI解决方案可以为企业和公民提供巨大的机会,但也可能带来风险。这就是为什么我们需要一个坚实的监管框架,以确保基于高质量数据的值得信赖的AI。”他说。

AI开发需要合乎道德

分析软件提供商SAS在一份名为《AI与负责任创新》报告中概述了AI带来的一些风险。报告的作者Kirk Borne博士说:“AI已经变得如此强大、如此普遍,以至于越来越难以分辨其生成内容的真假和好坏。采用这项技术的速度明显快于监管的步伐。”

SAS英国和爱尔兰地区数据科学主管Iain Brown博士表示,政府和行业都有责任确保AI被用于有益而非有害的方面。这包括使用道德框架来指导AI模型的开发,并严格治理,以确保这些模型做出公平、透明和公平的决策。我们可以将AI模型与挑战者模型进行对比,并在新数据可用时对其进行优化。”

其他专家认为,软件开发商将被要求降低软件所代表的风险,只有风险最高的活动才会面临更严格的监管措施。

美国瑞格律师事务所(RopesGray)数据、隐私和网络安全助理Edward Machin表示,像ChatGPT这样看似一夜之间出现的技术,其应用速度将快于监管法规,这是不可避免的情况,尤其是在AI这样已经很难监管的领域。

他表示:“尽管对这些技术的监管政策将会出台,监管方法和监管时机仍有待观察。AI系统的供应商将会首当其冲,但进口商和分销商(至少在欧盟)也将承担潜在的义务。这可能会使一些开源软件开发者陷入困境。开源开发者和其他下游各方的责任将如何处理,可能会对这些人进行创新和研究的意愿产生寒蝉效应。”

版权、隐私和GDPR法规

此外Machin认为,除了对AI的整体监管之外,关于其生成内容的版权和隐私也存在问题。例如,目前尚不清楚开发人员是否能够轻松地(如果有的话)处理个人的删除或更正请求,也不清楚他们如何能够以一种可能违反第三方网站服务条款的方式从他们的网站抓取大量数据。

在艾伦·图灵研究所从事AI监管工作的纽卡斯尔大学法律、创新和社会专业的教授 Lilian Edwards表示,其中一些模型将受到GDPR法规的监管,这可能会导致发布删除训练数据甚至算法本身的命令。如果网站所有者失去了AI搜索的流量,这也可能意味着从互联网大规模抓取数据的终结,目前这种抓取是谷歌等搜索引擎的发展动力。

他指出,最大的问题是这些AI模型的通用性质。这使得它们难以根据欧盟AI法案进行监管,该法案是根据面临的风险起草的,因为很难判断最终用户将用这项技术做什么。欧盟委员会正试图增加规则来管理这类技术。

加强算法透明度可能是一种解决方案。Edwards说:“大型科技公司将开始游说监管机构,他们说,‘你们不能把这些义务强加给我们,因为我们无法想象未来的每一种风险或用途’。有一些处理这个问题的方法对大型科技公司或多或少有所帮助,包括让底层算法更加透明。我们正处在困难时刻,需要获得激励措施朝着开放和透明的方向发展,以便更好地理解AI如何做出决策和生成内容。”

她还说:“这和人们在使用更无聊的技术时遇到的问题是一样的,因为技术是全球性的,而居心不良的人无处不在,因此进行监管非常困难。通用AI的行为很难匹配AI法规。”

AI咨询服务商DragonFly首席技术官Adam Leon Smith表示:“全球监管机构越来越意识到,如果不考虑AI技术的实际使用情况,就很难监管。准确度和偏差要求只能在使用的背景下考虑,在大规模采用之前,也很难考虑到风险、权利和自由要求。”

“监管机构可以强制要求AI技术提供商提供透明度和日志记录。然而,只有为特定目的而操作和部署大型语言模型(LLM)系统的用户才能了解风险,并通过人工监管或持续监控实施缓解措施。”他补充道。

AI监管迫在眉睫

欧盟委员会内部曾经对于AI监管进行了大规模辩论,数据监管机构对此必须认真应对。最终,Leon Smith认为,随着监管机构越来越关注这一问题,AI提供商将开始列出“不得使用”该技术的目的,包括在用户登录之前发布法律免责声明,将其置于基于风险的监管行动范围之外。

Leon Smith称,目前管理AI系统的最佳实践几乎没有涉及大型语言模型,这是一个发展极其迅速的新兴领域。而在这个领域有很多工作需要做,很多公司提供这些技术并没有帮助定义它们。

OpenAI首席技术官Mira Muratti也称,生成式AI工具需要受到监管,“对于我们这样的公司来说,以一种可控和负责任的方式让公众意识到这一点很重要。” 但她也表示,除了监管AI供应商之外,还需要对AI系统进行更多的投入,包括来自监管机构和政府的投入。”