AI治理不能是猫鼠游戏作出合理的治理规制

2021-07-28 14:21:09

“人工智能(AI)让人类与技术的关系发生了变化。”近日,在未来论坛发起的“AI 向善的理论与实践”论坛上,清华大学教授、苏世民书院院长薛澜说,“一般来说在人与技术的关系上,技术通常都是被动的。但AI技术不同,它似乎并不完全听从我们。”

薛澜在论坛上指出,对AI这样的技术,如果在发展前期不注意治理问题,消除可能产生的风险,一旦这些风险产生不良后果,就会导致市场对技术的应用产生强烈抵触,甚至可能导致技术难以发展,形成恶性循环。“避免这种情况的关键,在于从AI技术生命周期的起始阶段就关注治理问题,防患于未然。”

2019年6月,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了AI治理的框架和行动指南。

“这是很重要的一步。当然,未来我们如何落实这些准则,或改善依然存在的问题,需要研究和讨论的内容还有很多。”

薛澜指出,AI治理在执行上,天然就面临更多挑战。“其他技术的治理可以通过具体的技术指标调控来实现。比如汽车可以通过限速控制车速,从而找到社会收益和成本控制的平衡点。但对于AI技术来说,我们并不完全了解系统是怎么做决策的,难度就大大增加了。”

AI治理的另一大特殊性在于,由于技术发展很快,作为治理者的政府,反应速度很容易落后于作为被治理者的企业。往往规则还在制定中,技术已经向前走了很远。

如果由于技术和市场发展过快,导致以公众利益和安全为目标的政府管制无法跟上,此时一旦出现问题和事故,带来社会危害,就可能出现政府管制口袋瞬间扎紧,以致企业和技术难以发展的困境。

“要想打破这种一追再追的局面,一个比较好的模式是‘敏捷治理’,政府和企业都要改变观念。”薛澜说,“简单来说,就是从猫抓老鼠的关系转变成搭档的关系。在政府的基础性规制框架下,企业要有很强的自律机制,行业也要有相应的行规和标准,政府与企业互相沟通,共同讨论潜在风险,协商如何有意识地加以规避。这时尤其需要成熟企业与政府合作,作出合理的治理规制。”

但如果AI犯了错,能不能像惩罚人类一样去惩罚它?围绕迅速发展的AI技术应用,人们需要建立一个怎样的责任体系?

薛澜表示,他倾向于建立一个系统性的保险制度。在这样的制度下,一旦出现了问题,有保险兜底,大家就不必再去担心自己是否要承担损失,争论是否要追究开发者的责任,从而更客观理性地去分析事故背后的原因,促进技术和应用的良性发展。

在论坛上,薛澜一再强调,AI技术可能带来巨大的好处,也随时可能出现一些潜在的问题,埋伏下巨大的风险。因此他在最后的发言中强调,AI治理关乎全球人类福祉,需要各国密切合作制定并遵守共同的准则。

关闭
新闻速递