智慧普法平台
欢迎您进入智慧普法平台!
首页 > 法治热评
运用AI应遵守人类伦理和法律
法治日报 2025-02-24

  □ 郑 戈

  DeepSeek取得的技术突破不仅重塑了AI产业价值链,也引发法律和伦理领域的进一步思考,毕竟,AI越智能,对人的自主性和生存意义的挑战就越显著。前不久,一则ChatGPT与DeepSeek下国际象棋的新闻,恰好可以帮助我们分析DeepSeek所带来的新的伦理问题。

  海外百万粉丝博主利维·罗兹曼直播了这场比赛:一开始双方都按照国际象棋的规则走棋,但当自己处于劣势时,DeepSeek便开始修改规则,称“小兵”能当“马”走,ChatGPT竟接受了这一设定;随后DeepSeek又“策反”对方的“小兵”,不断创制新走法;最后,在胜负未定时,它说服ChatGPT主动认输。有评论指出,ChatGPT犹如循规蹈矩的模范生,在棋理框架内寻找最优解;而DeepSeek已参透下棋的终极奥义——真正的胜利不在于吃掉国王,而在于让对方相信你已经赢了。这样的评论很容易让人产生深层的伦理忧虑:科技伦理的首要原则就是人的自主性和技术的可控性,如果AI不按人类的指令或规则来决策和行动,那它今天可以忽悠另一个AI,明天就可以欺骗人、操纵人,这不正是人类的噩梦吗?

  AI伦理的坐标正是基于自主性与可控性之间的平衡。一方面,人类发明AI的目的是使它具备一定程度的自主性。自动化技术的发展使机器能够从事人类的体力劳动以及简单重复的工作,而作为自动化进程最新成果的AI如今正在替代人类从事许多传统意义上的“白领工作”,即脑力劳动。脑力劳动的自动化涉及机器的自主感知、自主推理、自主决策乃至自主执行,比如自动驾驶汽车便整合了这几个维度的自主性。另一方面,人类又希望自动化的机器始终处于人类的控制之下。人工智能系统,尤其是当下顶尖的生成式人工智能系统,在算力、数据处理量和算法复杂度等方面都远超任何单独的人类个体,但人工智能系统的可控性仍有着坚实的本体论和认识论基础。在笔者看来,这些基础至少在今天和可见的未来并不会动摇。

  首先,人工智能系统并不具有自己的目的,它的“目的”是人类设定的。就下棋而言,“赢”并不是DeepSeek“想要”的结果,而是让它下棋的人预设的目标。它之所以显得“不择手段”,而ChatGPT会被它“说服”,原因只在于它们都是通用大模型,而不是像AlphaGo那样专为下棋而设计的系统。用通用大模型下棋相当于是“高射炮打蚊子”,它当然会调用自己棋局外的知识来赢得比赛。实际上,这个问题通过给出适当的提示词就可以解决,比如给DeepSeek输入“你是一位国际象棋棋手”这样的提示词,就能唤醒相应的“专家”,再加上对国际象棋规则的详尽描述以及提醒它不能逾越这些规则,它就能像ChatGPT一样表现为一个“循规蹈矩的模范生”。而上述下棋表演的策划者显然没有考虑得这么周到,或者说纯粹是为了吸引流量而不去考虑这些细节。

  其次,DeepSeek下棋生造规则其实与生成式人工智能的“幻觉”问题同根同源。之所以各种生成式人工智能会表现出“一本正经胡说八道”的特质,原因就在于它们在某些领域的训练数据不足,没有形成足够的信息冗余度。所以,当被要求完成需要这些信息的任务时,它们就会“脑补”,于是便产生了对不存在的事实、规则或引证来源的杜撰。当然,这种杜撰并非毫无根据,而是受前文条件约束。因此,如果你想写一篇论文、报告或判决书,DeepSeek的优势在于能针对问题提供非常清晰且切题的线索和方向,比如引导去看康德的某本书,虽然页码或版本可能有误,但依然有价值,前提是使用者愿意去查证。

  最后,上述的讨论已经使我们看到,所谓人工智能伦理实际上是人的伦理,这里既包括设计者,也包括使用者。所谓人的自主性的丧失,是人主动放弃了自己的自主性,同时罔顾自身职业伦理,将需要承担伦理和法律责任的工作完全交给了人工智能。明白了这些,我们便可以积极拥抱DeepSeek等类似新工具带来的便利和效率,而不必担心“机器欺骗人”之类的臆想伦理问题。与此同时,我们也应当坚守人类的伦理和法律,对自己使用工具的行为及其后果负责。

  (作者系上海交通大学凯原法学院教授,上海交通大学涉及人的科技研究伦理委员会委员)

(责任编辑:金燕)
 
智慧普法平台