世见 谷歌工程师被休假背后:AI到底该不该有“自我”?NBD对话人

发布时间:2022-06-16 17:34 已有: 人阅读

  一经发出,所谓谷歌AI已经“觉醒”的话题迅速火爆出圈,在科技界和普通大众间引发热议。

  实际上,不仅是谷歌内部人员,大多数AI研究人士也并不认同雷蒙恩的说法。

  布达佩斯科技与经济大学人工智能哲学专家米哈伊•赫德尔在接受

  迪特里希通过邮件对解释道,从基本原理来说,LaMDA只是一种用来预测对话内容的深度神经网络模型:使用者输入一个短语,它可以预测下一个单词是什么,从而生成一句话。它的回答之所以流畅自然,是因为用来训练它的语料库十分庞大,而且它还可以维基百科之类的海量外部信息,再融进回答里面。

  据谷歌介绍,LaMDA系统一共有1370亿个参数,用来训练它的对线万亿字。“它记住了非常非常多的自然语句,而且还能用非常自然的方式把它们组合到一起。它之所以看起来像一个人,是因为它的学习方式就是模仿人类,” 迪特里希解释道。但究其本质而言,它只不过是在特定语境下,按照统计学概率给出一个语料库里的典型回答而已。

  迪特里希的不少学生毕业后就在谷歌工作。根据他提供的数据,LaMDA回答的正确率只有73%左右,提供有效信息的概率为62%,实际上仍然有很大的提升空间。

  另一方面,在迪特里希看来,判断AI系统是否具备感知力或者拥有意识,是哲学界争论不休的话题,至今仍未有令众人信服的标准,而在计算机科学领域,这类问题甚至没有被严肃研究过。迪特里希认为,雷蒙恩声称LaMDA具有感知力可能是滥用了概念。

  “许多计算机科学家,对这类概念并没有很深的理解,对于人类如何判断一个系统是否有感知力或意识,他们并没有仔细思考过,” 迪特里希表示。

  赫德尔持同样的观点,“世界上没有普遍接受的感知力判断标准,因为感知现象是私人的,无法从外部进行实证研究,”因此从逻辑上来说,真正有意识的AI或许是一个永远难以说清楚的事情。

  尽管感知力难以界定,但赫德尔也明确指出,“雷蒙恩提出的问题也并不是像很多人说的那样不值一驳。撇开意识不谈,一些由此产生的道德问题几乎和机器产生意识同样严重。”赫德尔表示。

  其实,围绕AI感知力的争论多是学院的研究话题和科幻作品的灵感

  “目前大多数研究工作并不是试图制造有感知或有意识的AI,而是希望计算机在学习复杂问题上做得更好,更可靠地帮助人们处理实际问题,” 伦敦大学学院名誉教授彼得•本特利通过邮件对

  环顾现实世界,智能对话是目前AI领域应用最广泛的技术之一。从亚马逊的语音助手Alexa到苹果的Siri,在现实生活中我们对这类技术已经不陌生。同时,AI在语言翻译、智慧办公、自动驾驶、生物医药等领域也有深入应用。

  值得一提的是,谷歌旗下的DeepMind是AI生物医药领域的明星公司。DeepMind将机器学习和系统神经科学最先进技术结合起来,在预测蛋白质结构这一生物学难题上取得了长足进步,将人类蛋白质组预测范围覆盖到了98.5%。由于几乎所有疾病都与蛋白质的结构和功能息息相关,DeepMind的成就将给药物设计带来巨大的推动作用。此外,今年以来,多家跨国医药巨头都在人工智能领域建立了合作伙伴关系。

  在AI展示出广阔的应用前景之时,其带来的挑战也不容忽视。赫德尔认为,这些挑战并非技术上的硬件算力问题,而更多的是人类与AI如何相处的问题。

  在赫德尔看来,AI对社会的首要冲击是争夺人类的工作机会,正如工业革命让许多农民流离失所一样。被AI取代的人是否还能像前几次技术革命后那样找到其他工作,这一切仍是未定之数。

  另一个问题是设计和使用AI的监管和伦理问题,比如自动驾驶模式下行驶的汽车导致行人死亡,责任人是汽车设计方还是操作方?随着AI越来越多地取代人类的行动,我们对责任与义务等问题的观念或许需要重新界定。

  赫德尔认为,这涉及到人工智能的道德地位问题:“它们”是人还是机器?还是介乎之间?未来人类应该如何看待“它们”?

  对此,本特利表达了自己的担忧,他表示,当人类对AI使用大量的训练数据时,人类个体可能会不经意地训练AI产生偏见——这可能意味着它会成为种族主义者或者性别歧视者,也可能也会学习淫秽语言。所以,我们必须对教给AI的东西非常小心,就像在学校教我们的孩子一样。

  迪特里希在回复

  “但是这些系统除了我们为它们设定的目的之外,并没有它们自己的动机或目标。没有‘自主和独立’的意识,它们就不会像科幻电影中的机器人那样反抗人类和寻求自由。” 迪特里希进一步解释道。

  当前,立法机构已经开始注意到这些问题。比如,欧盟的人工智能法律框架就要求像LaMDA这样的聊天系统必须被明确标记为机器人,给予使用者充分的知情权。特斯拉的自动驾驶技术尽管比较先进,但在法律上仍被视为驾驶辅助系统,驾驶员在任何时候都有责任。

  迪特里希也在这个问题上给出了一些基本原则。他认为,首先,人类绝对不能制造可以完全独立操作、具有攻击人类能力的AI武器系统。在对电力和供水这类关键性基础设施进行AI自动化时也必须慎之又慎,因为这些自动系统一旦出现错误将严重扰乱社会秩序。此外,AI自动生成内容的技术在社交媒体领域也十分危险,因为操纵人们相信虚假内容、制造社会分裂是十分容易的。

  针对未来人工智能与人类的关系,迪特里希认为,“我们对AI的行为期望类似于对宠物的期望。我们教狗不要咬人,如果它们咬人,狗主人要承担责任。”

  谈及对AI的预期时,本特利也以宠物作了类比,他在回复

热门推荐
图文推荐
  • 摩托罗拉下一部Moto G手机可能配备108MP摄像
  • 微软以197亿美元收购Nuance
  • Google正在尝试另一项个人健康记录