当前位置:业界 > 正文
Google员工给Bard贴上"糟糕透顶"和"病态说谎者"的标签
2023-04-20 05:51:11 来源: cnBeta


【资料图】

Google员工在内部信息中反复批评该公司的聊天机器人Bard,给该系统贴上"病态说谎者"的标签,并恳求该公司不要推出该系统。彭博社的一份报道引用了与18名现任和前任Google员工的讨论,以及内部信息的截图。

在这些内部讨论中,一名员工指出Bard如何经常给用户提供危险的建议,无论是关于如何降落飞机还是潜水的话题。另一名员工说:"Bard比废物还糟糕:请不要发布它。"彭博社说,该公司甚至"否决了一个内部安全小组提交的风险评估",说该系统还没有准备好用于普遍使用。无论如何,Google在3月开放了对这个"实验性"机器人的早期访问。

彭博社的报告表明,Google为了追赶微软和OpenAI等对手,显然已经把道德问题放在一边。该公司经常吹嘘其在人工智能方面的安全和道德工作,但长期以来一直被批评为以商业为优先。

2020年底和2021年初,该公司解雇了两名研究人员 - 蒂姆尼特·格布鲁和玛格丽特·米切尔,因为他们撰写了一篇研究论文,揭露了支撑Bard等聊天机器人的人工智能语言系统中的缺陷。不过现在,随着这些系统威胁到Google的搜索业务模式,该公司似乎更加注重业务而非安全。正如彭博社在引述现任和前任员工的证词时所说,"这个值得信赖的互联网搜索巨头正在提供低质量的信息,以跟上竞争的步伐,同时不太重视其道德承诺。"

Google的其他员工以及更普遍的人工智能开发者会不同意这种观点。一个常见的论点是,公开测试对于开发和保障这些系统是必要的,而且已知的由聊天机器人造成的伤害是最小的。是的,它们产生了有毒的文本,并提供了误导性的信息,但网络上无数的其他来源也是如此。Google的竞争对手如微软和OpenAI也可以说是和Google一样的妥协,唯一不同的是,他们不是搜索业务的领导者,损失更少。

Google的发言人布莱恩-加布里埃尔(Brian Gabriel)告诉彭博社,人工智能道德仍然是该公司的首要任务。"我们正在继续投资那些致力于将我们的人工智能原则应用于我们的技术的团队。"

在我们将Bard与微软的必应聊天机器人和OpenAI的ChatGPT进行比较的测试中,我们发现Google的系统在实用性和准确性方面一直不如其竞争对手。

标签:

责任编辑: jkl2