当前位置:业界 > 正文
非营利组织问责科技呼吁经营人工智能的公司必须证明其技术是安全的
2023-08-15 08:52:28 来源: cnBeta

非营利组织问责科技(Accountable Tech)、AI Now和电子隐私信息中心(EPIC)发布了政策建议,旨在限制大型人工智能公司在监管方面的权力,这也可能会扩大政府机构对某些生成式人工智能用途的权力。

该组织本月向主要是美国的政治家和政府机构发送了这一框架,要求他们在制定有关人工智能的新法律法规时加以考虑。


【资料图】

该框架被他们称为"零信任人工智能治理"(Zero Trust AI Governance),它基于三项原则:执行现有法律;制定大胆、易于实施的明线规则;让企业承担责任,证明人工智能系统在人工智能生命周期的每个阶段都不会造成危害。它对人工智能的定义既包括生成式人工智能,也包括支持生成式人工智能的基础模型以及算法决策。

Accountable Tech 的联合创始人杰西-莱里希(Jesse Lehrich)表示:"我们希望现在就推出这个框架,因为技术发展很快,但新法律却无法以这样的速度发展。但这给了我们时间来减轻最大的危害,因为我们正在摸索监管预部署模型的最佳方法"。

他补充说,随着选举季的到来,国会很快就会离开进行竞选活动,这让人工智能监管的命运悬而未决。在政府继续摸索如何监管生成式人工智能的过程中,该组织表示,目前有关反歧视、消费者保护和竞争的法律有助于解决目前的危害。

人工智能中的歧视和偏见是研究人员多年来一直警告的问题。《滚石》杂志最近的一篇文章记录了蒂姆尼特-格布鲁等知名专家多年来如何就此问题敲响警钟,但却被雇用他们的公司所忽视。

莱里希指出,联邦贸易委员会对 OpenAI 的调查就是利用现有规则发现潜在消费者伤害的一个例子。其他政府机构也警告人工智能公司,他们将密切关注人工智能在其特定领域的应用。

美国国会举行了多次听证会,试图找出应对生成式人工智能崛起的办法。参议院多数党领袖查克-舒默(Chuck Schumer)敦促同事们在人工智能规则制定方面"加快步伐"。OpenAI 等大型人工智能公司对与美国政府合作制定法规持开放态度,甚至与白宫签署了一份不具约束力、无法强制执行的协议,以开发负责任的人工智能。

零信任人工智能框架还试图重新定义数字屏蔽法(如第 230 条)的限制,这样,如果模型吐出虚假或危险信息,生成式人工智能公司就要承担责任。

莱里希说:"第230条背后的理念大体上是有道理的,但Yelp上的差评是因为有人讨厌这家餐厅,这与GPT编造诽谤信息是不同的。"(第 230 条的通过在一定程度上正是为了保护在线服务免于承担诽谤性内容的责任,但对于像 ChatGPT 这样的平台是否要为产生虚假和破坏性的言论负责,目前还没有什么既定的先例)

由于国会议员不断与人工智能公司会面,加剧了人们对监管俘获的担忧,Accountable Tech 公司及其合作伙伴提出了几条明线规则,即明确界定、不留主观余地的政策。

其中包括禁止将人工智能用于情绪识别、预测性警务、用于公共场所大规模监控的面部识别、社交评分以及全自动招聘、解雇和人力资源管理。他们还要求禁止为特定服务收集或处理不必要数量的敏感数据,禁止在教育和招聘等领域收集生物识别数据,以及禁止"监控广告"。

问责科技还敦促立法者阻止大型云提供商拥有大型商业人工智能服务或在其中拥有受益权,以限制大科技公司在人工智能生态系统中的影响。微软和Google等云服务提供商对生成式人工智能有着巨大的影响力。最知名的生成式人工智能开发商 OpenAI 与微软合作,微软也对该公司进行了投资。Google发布了大型语言模型"巴德"(Bard),并正在开发其他用于商业用途的人工智能模型。

问责科技公司及其合作伙伴希望使用人工智能的公司证明大型人工智能模型不会造成整体伤害该组织提出了一种类似于制药行业的方法,即公司在向公众部署人工智能模型之前就必须接受监管,并在商业发布之后接受持续监控。

非营利组织并不要求建立一个单一的政府监管机构。不过,莱里希说,这是立法者必须解决的一个问题,看看拆分规则是会让监管更灵活,还是会让执法陷入困境。

莱里希说,可以理解小公司可能会对他们所寻求的监管数量望而却步,但他认为,根据公司规模量身定制政策还是有余地的。他说:"实际上,我们需要区分人工智能供应链的不同阶段,并设计适合每个阶段的要求。使用开源模型的开发者也应确保这些模型符合指导方针。"

标签:

责任编辑: jkl2