圣大一位哲学家谈神经网络中的卡特尔勾结
圣彼得堡国立大学伦理学系主任瓦迪姆·佩罗夫做客圣彼得堡国立大学播客“Heinrich Teragerz”的第 19 期节目。他谈到了语言模式是如何变成种族主义的,他们是如何组织卡特尔勾结的,以及为什么他们认为标尺是肺癌存在的重要标志。
播客嘉宾谈到了语言模型的原理和一些常见错误,这些错误有时会造成一些后果。例如,关于人工智能幻觉。
瓦迪姆·佩罗夫表示:“我们的一篇文章就谈到了这个问题。它是关于这样一个事实:如果算法不知道问题的答案,它就会开始发明答案。而它已经发明的东西,在未来会被认为是真理,即使它并不是真的”。
他还谈到,人工智能永远无法取代人类,只能让常规性的工作变得更轻松。因为人工智能就像人造色素——无论它多么像真正的智能,它都永远不会成为真正的智能。而原因之一,就是它缺乏对伦理本质的理解。
这方面的例子有很多。例如,微软的Tay聊天机器人就是根据互联网中的公开数据训练出来的。结果发现,互联网上有很多性别歧视者、种族主义者和不太宽容的人。而人工智能无法理解,存在有这样一些人或存在一些违法行为并不是常态。当我们坐在这里的时候,某个地方发生了一起抢劫案,这些抢劫案经常发生。但这并不意味着这是正常的。
圣彼得堡国立大学伦理学系主任瓦迪姆·佩罗夫
另一个例子是出租车服务的算法,它会在需求增加时自动提价。即使这是由严重紧急情况或恐怖袭击造成的。此外,还有证券交易所交易时使用的算法组织卡特尔勾结的例子。
另一个例子是通过 X 光片识别肿瘤的人工智能。结果发现,训练模型的每张 X 光片侧面都有一把尺子的照片。由于每张照片上都有这把尺子,程序就认为它是照片的重要组成部分,于是开始评估的不是肺部,而是尺子的存在。让程序忽略这一点是不可能的。而与此同时,我们可以快速向他人解释这个错误,他或她会立即明白这一点。