圣大探讨神经网络在科学研究中的应用前景
圣彼得堡大学举办了系列科学实践研讨会,探讨人工智能在科学研究中的应用。圣彼得堡大学的专家们选择了新近推出但已广受欢迎的ChatGPT服务作为范例。
当下,此类服务的应用以及人类智力劳动与人工智能行为之间的界限问题正变得越来越尖锐。圣彼得堡大学的哲学家们为研究这些问题专门举办了一系列研讨会,圣大专家与学生参与了上述研讨会。
据圣大伦理学教研室主任瓦基姆·佩罗夫(Вадим Перов)称,目前国际社会对谁应该对人工智能成果负责还没有明确的认识,但大多数专家都认为责任不应由程序本身承担。
但如果不由人工智能承担,又该由谁来承担呢?创造者、所有者还是使用者?在实际中很难确定。谁是创造者,是程序员、IT企业还是其他人?谁是用户,是神经网络产品的受众?
圣大伦理学教研室主任瓦基姆·佩罗夫
目前这些问题还没有答案,然而大学多位专家指出,必须找到若干解决方案,因为人工智能运作的监管问题不仅是哲学家关心的问题,也是律师关心的问题。例如,圣大的律师们在TIBO-2023国际论坛上讨论了制定神经网络方面法律规范的必要性。

瓦基姆·佩罗夫认为,有必要对人工智能的运作进行管控,因为人类还没有找到一种方法来教会人工智能程序分辨善恶。人工智能会对其获取的所有信息进行算法处理。然而这些数据集中也包含人类的负面经验,如与虐待、暴力或其他方面相关的历史。人类在生活中形成了批判性思维能力以及一定的是非观,能够对这些资料做出自己的评估,而人工智能则“照单全收”。
瓦基姆·佩罗夫指出,创造所谓的人造“道德代理人”,即在人工智能水平上进行道德划分的标准,仍然只是一种假设,与其说是科学,不如说是幻想。这位科学家认为,即使有一天创造出了某些“伦理正确的算法”,也会出现一个更加复杂的问题:人工智能系统支持的价值准则是谁的价值准则。
大学的哲学家们特别关注科研工作中使用神经网络的学术伦理问题。佩罗夫认为,在科学研究中使用各种服务不应被视为学术失范,但其相关使用信息应披露。
伦理合规不仅要求在著述中注明使用了人工智能系统的某些算法,还应描述使用方法,以便外人能够看到科学家自己的贡献。
圣大伦理学教研室主任瓦基姆·佩罗夫
“在某些情况下,这种贡献可能是借助人工智能开发研究设计并加以实施,而在某些情况下,这种贡献会更大。诚实的注释能使人们能够清楚了解科学家在著述中究竟做了什么,以及他利用现代技术来精进自身的研究是否内行,”圣大伦理学教研室主任瓦基姆·佩罗夫说道。
这位科学家相信,科学界将逐步制定出针对此类出版物的伦理规则,然而有些人仍会利用这种框架的缺失,从而导致低劣研究成果的数量增加。这反过来又要求对同行评审程序进行变革。
在研讨会框架内,与会者在实践中测试了聊天机器人的工作。在“哲学中的数字技术”项目策展人、圣大毕业生德米特里·亚罗奇金(Дмитрий Ярочкин)的指导下,人们尝试使用ChatGPT撰写一篇关于自由意志的哲学学期论文。生成文本的质量由圣大哲学人类学教研室主任伊戈尔·拉里奥诺夫(Игорь Ларионов)进行评估。
与会者们得出的结论是,首次使用该服务基本上不可能获得可接受的结果,必须具有使用聊天机器人的经验,并能够够清晰地提出要求。
大多数人每天都会使用各类搜索引擎,因此看似很多人都具备这项技能,但在使用平台时往往还不够。神经网络在这种情况下可能会给出过于模糊的答案,或者写出以不同表述方式重复相同的观点的长篇大论。此外程序还经常会犯一些错误,包括事实错误和语法错误(聊天机器人接受的英语训练强过俄语)。
此外必须认识到,完全由ChatGPT生成的文本没有学术价值。神经网络并不能生成新东西,它只是使用了别处已经发布的信息,即已知的信息。不过圣彼得堡大学的哲学家们也指出,这种服务可以成为一种有益的工具,包括在撰写学术文章时。例如,程序可以为未来的论文提出可行的结构建议,或分析现有文本以突出其中的主要观点,这对撰写结论或摘要大有裨益。人工智能还能以不同的文体重写文件:更通俗易懂,或反过来,更学术。
圣大的哲学家们计划在将来为科学研究和其他可以使用自动化常规流程的领域中使用ChatGPT制定指导方针。系列研讨会是在俄罗斯科学基金第22-28-00379号项目“道德代理人的转变:伦理哲学分析”的框架内组织的。