AI如何监管?麻省理工Andrew McAfee博士给我们提供了新的答案

AI如何监管?麻省理工Andrew McAfee博士给我们提供了新的答案

老李头 / 2023-11-17 17:5788162

从AI诞生的那一刻起,关于如何监管AI的讨论就从未停止过。

但事实上,如何监管AI是一个非常复杂的话题,不同的国家和地区也有不同的监管政策和框架,如欧盟的《人工智能法案》、美国的《人工智能问责政策征求意见》、中国的《生成式人工智能服务管理暂行办法》等,对AI的定义、分类、风险分级、责任划分等方面提出了一些规范和要求。

而近期在葡萄牙里斯本举行的Web Summit 2023峰会上,来自麻省理工学院斯隆管理学院的首席研究科学家安德鲁·麦卡菲(Andrew McAfee)则给我们提供了一个新的解题思路——“无需许可的创新”观念,与之前很多针对AI的监管方案站在了对立面。

图片1.png

麻省理工Andrew McAfee(安德鲁·麦卡菲)博士

“无需许可”真的不会带来灾难吗?

在这场备受关注的演讲中,他提到了两个概念:upstream governance(“上游治理”或“预防性治理”)和permissionless innovation(“无需许可的创新”)。其中,upstream governance意为“上游治理”、“前瞻性治理”或“预防性治理”,指在技术创新之前,就先对其可能带来的风险和影响进行预防性的监管和控制。

与此相对的是permissionless innovation,意为“无需许可的创新”、“自由创新”或“无限制创新”,指创新者不需要事先获得政府或其他机构的许可,就可以自由地进行新技术和新商业模式的实验和探索。

图片2.png

安德鲁·麦卡菲旗帜鲜明地站在了自由创新这一边,理由有三个方面:

首先,自由创新并不意味着没有规范和监督。

安德鲁认为,这个问题从根本上而言这是一个监管时机的问题,也就是不应该进行“预防性治理”,而应该有针对性地进行监管。例如以前带摄像头的智能手机刚刚兴起的时候,有人用它来偷拍女性裙底,而当时由于手机摄像头还是个新鲜事物,法律并没有相关的规定来保护女性权益。

但后来很快,就有相关立法机构对此推出了相关的法律规定,在技术发展后对如何使用进行了一定的规范。换言之,如果有人用菜刀伤人,应该增强管理使菜刀更安全,而不是用法规的力量让菜刀没有刀锋。

用我们常说的话而言就是:“发展的问题要用发展来解决”。AI也是如此,我们应该做的是在AI发展过程中动态地解决中间出现的问题,不能因为发展AI可能产生的一些危险就止步不前,希望通过限制发展来避免危险,用安德鲁的原话就是要“让改错更简单”,而不是“保证不犯错”,这样才能使监管真正起到作用。 

图片3.png

其次,安德鲁认为我们可能高估了AI的危害。

自AI诞生以来,各种关于AI将会带来大灾难的消息就一直没有消失过,甚至还有很多人将其与核战争、大流行病等事物列在一起,认为AI是像“潘多拉的魔盒”一样的存在,达到了耸人听闻的地步。

但安德鲁博士认为我们可能过于专注于AI,而忽略了很多其他更危险的技术。例如生物技术,每个人都可以获取相关的知识和设备,且不需要经过审核或许可。如果你在生物技术领域工作,你可以在无需审核或许可的情况下做很多事,这是一个不合理的平衡。 

图片4.png

最后,或许也是最重要的一个原因,就是这种“无需许可的创新”可以激发创造力和想象力。

我们有一个基本的常识,即创新是一种不可预测的、具有分散性的活动,这是它的核心属性,我们很难预测未来的发展方向,尤其在当AI变得越来越强大的当下,未来发展的发展方向可能会越来越多地出现在我们没有注意到的地方。

在演讲开头,他还提到了一款学习语言的软件——多邻国APP,认为这很能说明Permissionless innovation的优势。这款APP利用了最新的AI技术,能够更加方便、快速、低成本地评估英语水平。但如果要求其在技术上市之前就满足一系列比如数据保护、算法透明、人类监督等要求的做法,会限制创新的空间和速度,从而错失创新的好机会。

图片5.png

Permissionless innovation不只应用在科技领域

事实上,这种Permissionless innovation的优势不仅体现在AI领域,在此次Web Summit 2023的演讲上,Andrew还举了关于mRNA和丘吉尔的对话两个例子,为我们讲述了Permissionless innovation概念在其他领域的作用。

今年获得诺贝尔医学与生物学奖的卡塔林·卡里科(Katalin Kariko)曾离开学术界十年之久,mRNA研究方向在当时也普遍不被看好,这个时候如果有一个主张“前瞻性治理(upstream governance)”的力量介入进来,那么mRNA方向的研究很有可能就会因为经费、项目等诸多原因而被“前瞻性地”废弃掉,这无疑对于整个人类而言都是非常重大的损失。 

图片6.png

事实上,“前瞻性治理”的基础在于对未来有一个准确的判断,但很明显没有人能够实现预测哪个方向会出现突破,如果判断出错那么将会失去很多出现优秀创新的可能,这就体现出Permissionless innovation理念的重要性。

另一个例子发生在1938年,此时正处于二战爆发前夕,战争的阴影笼罩着欧洲,时任英国首相张伯伦在与希特勒接触后签订了著名的“绥靖政策”代表作《慕尼黑协定》,认为可以通过与希特勒签订和平协议来换来和平。但在返回英国后,丘吉尔一语道破天机,打破了张伯伦以及当时很流行的绥靖主义风气。

他说:“你认为你可以在战争和耻辱(指与纳粹签订合约)之间做一个选择,于是你选择了耻辱,但战争仍然是不可避免的。”可以看出,Andrew先生认为AI带来的危机可能并不是“预防性治理”就可以避免的。换言之,摆在人类面前的并不是“加强微观管理”和“混乱”两个选择,而是无论怎样选择,由AI带来的混乱或许都难以避免。

当然,这个道理还有一个广为人知的中国名字——堵不如疏,在人工智能已成浪潮汹涌之势的当下,或许积极着眼于怎样面对新的浪潮才是更好的态度。


发表评论