当前位置:刘伯温预言 > 认知仿真 >

智能革命、城市与人类未来②|人类认知与生活的深度智能化

  2018年9月在上海召开的世界人工智能大会让社会与公众走近也进一步了解了人工智能。一方面,人们看到人工智能赋能新时代,给社会带来了经济发展、产业结构的变化。另一方面,也有人禁不住提问:人类正在面临一场智能革命吗?该如何定义所谓“智能革命”?这场革命对人类会有怎样的影响?

  面对这些问题,于上月底(2018年9月27日)在上海举办的“智能革命、城市与人类未来”研讨会上,来自中国社会科学院、中国人民大学、清华大学、北京邮电大学、北京语言大学、上海社科院、复旦大学、上海交通大学、华东师范大学、上海大学、华东政法大学的学者围绕“智能革命的实质”、“智能革命对人类的深远影响”、“人类认知与生活的深度智能化”、“‘生命智能社会复合体‘(Bio-intelligence-social Complex)与城市未来”等议题进行了深入讨论。

  研讨会由上海市科协、中国社会科学院科学技术和社会研究中心主办,上海市自然辩证法研究会承办,属国家社科基金重大项目“智能革命与人类深度科技化前景的哲学研究”的一部分。

  “澎湃新闻()”获主办方授权,刊发研讨会上部分专家学者的发言。本文包括其中“人类认知与生活的深度智能化”这一议题。

  这几年人工智能很火,我没有写什么文章。不过,我原来确实是做人工智能哲学的。我的第一篇学术文章就属于人工智能哲学,1998年发的,题目叫“人工智能中的达尔文主义”。我不是乐观派也不是悲观派,是个现实派。从进化论上讲,人类是不是进化链条上的最后一环?好像不太可能;有没有自然规律排除了出现比人类更高级的智能物种?好像没有证据否定。因此,那篇文章写了出现新的智能物种的可能性。这是20年前的事情,但后来没有做这个。

  这几年人工智能方面的发展我一直关注,文献材料几乎天天看。今天我讲一点我关注的东西。讲之前我稍微做个说明。现在社会上,包括学界,对人工智能这个概念有不少误解。人工智能这个概念有两个含义。当年创始人是把它看作科学。科学的目标是理解智能,包括人在内。这个任务任重道远,也没有看到近年来有多少实质性的进展。

  另一个含义就是人工智能技术。因为人工智能是试图用技术或工程的手段实现科学的目标,所以有两重性。现在火的是一些技术。人工智能发展的历史当中有个很有趣的现象。以前60年代、70年代、80年代有不少做出来的技术被搞软件的人或者搞人机交互的人拿去了,所以,人工智能内部的人感慨说是“为他人做嫁衣”。现在倒过来了,人工智能火了,什么都叫人工智能,本来不是人工智能的东西,比如一个简单的APP,也叫人工智能。我们搞哲学的,有责任对这些概念做个梳理和澄清。

  接下去,我想讲的是一个比较有趣的东西,四年来最火的一种技术。我想用这个例子来说明真正的技术发明和技术创新其实是很难预测的。另外,我想讲一下一种技术给我们带来的思考。那是什么呢?2014年出现了一种新技术,被认为是近年来最酷或者最火的发明,叫GAN。 “G”就是生成,“A”就是对抗、抗辩,“N”就是网络,简单地说就是生成对抗网络。

  这种技术的发明者是加拿大蒙特利尔大学的博士生,叫Goodfellow。2014年的一天,他和另外几个人送一个师兄毕业,就去酒吧。喝得微醉时候不知道怎么回事,他突然想到费恩曼1988年临终那天在黑板上留下的话,意思是我无法理解不能创造的东西。受这句话的启发,他发明了GAN技术。这种技术的基本思想是:有一个能不断生成图像或其他什么的神经网络,再有另一个能鉴别或评判生成的东西是不是靠谱的神经网络,通过两者的抗辩来获得逼真的结果。这有点像艺术家和艺术鉴赏家或批评家之间的关系,通过互动来获得优化的结果。这可以说是一个比较偶然的发明案例。

  我要说明的问题是什么呢?我们作预言,往往是预言一个笼统的大趋势,或者预言那些重复性的现象。真正技术的新发明或科学发现,有很大的偶然性,其实很难预言。很多东西不能做预言,包括人类社会,未来会怎么样,我们无法预言。前面很多老师讲到未来的前景,我是有困惑,不知道会怎么样。

  这种GAN技术经过近四年的发展,我网上查过有很多应用。应用当中会出现一些问题,需要我们思考。它的一个主要用处是创作图像,比如说生成一张看上去就是张三的照片。这个张三的真实照片作为比较,感觉生成的照片不像就改,后来改到两张照片没办法区分了,就算达到目标了。

  这种技术有什么用呢?网上出现过一个关于“奥巴马”的视频,看上去是奥巴马,听上去是奥巴马;而实际上是用这种技术生成的。这可以叫做逼真的虚构,看上去逼真,其实是虚构。那么,像这样的东西出来之后可能带来各种法律和伦理问题。一个马上可以想到是关于人脸的。比方说,视频中,我们常常看到有些人脸被打了马赛克。现在,这个技术可以把马赛克去掉,就会有问题。

  这种技术假如大量使用,也许会出现一个亦真亦假亦虚亦实的世界。到底怎么样,对普通人来说,可能会变得无法分辨。对我们这些搞教育的,这是一个巨大的挑战,也就是如何提高受教育者的判断力。当今世界,不缺知识,缺少的是判断力。

  我提的是一个内在路径,传统意义上我们是从外在看伦理学的,一般把技术当做是伦理学批判和反思的对象,反过来在智能革命时代,就是智能参与多的时候,包括刘老师讲的人机交互之后,更多什么东西需要伦理去反思它,这样我就想内在路径可以做什么。这是最近有点成果,在1月份做了一篇文章,《数据挖掘技术的哲学反思》,其中主要是从本体论和认识论谈了一点想法,这个文章也被转载。这个想法当中我就提出,既然数据挖掘从本体和认识当中已经促进发展,那么作为伦理学来讲是不是有更新的东西在里面呢。伦理学本身环境已经改变了,改变之后伦理学本身是不是有更新的东西。我选了一个小的视角,什么视角呢?前面几位专家全部探讨人、技术、过程、动物等,人和自然是剥离还是回归,我们是否被AI监控起来之后,其实我们在想一个共同的话题,人到底想干什么?就智能时代我们想干什么样的事情,归根到底伦理学特别想搞清楚人到底想要创造什么样的世界,这样就重新审视一下人的伦理主体地位。

  如果人的主体地位是被剥离的,这时候是不是技术可以往前推一把,推成人角色当中分出来的一个小东西。这样怎么去说起呢?刚才刘老师说第四次革命的时候,这里就有个想法,其实在技术的时代,科学发展的时代,人的地位是越来越往后走的,为什么弱化呢?参照这本书,这当中人的中心地位被降低下来,然后达尔文,然后是弗洛伊德,你的思想可以帮你解构,帮你认识,人还是很高兴的说没关系,解构我的思想没问题,你有本事模拟我啊。当你的思想可以被建构、模拟、仿真的时候,这时候人的地位是不是做一个让步,如果是让步的话那什么程度是合适的?又让给了谁?

  一个观点是把本体认识搞清楚之后说下一步想做伦理学的问题,我就很好奇,为什么要做伦理学,他哲学搞这么久,本体认识确实很重要,反过来想一想,做了这么多是不是给伦理学提供了更好的平台呢。他当时的梦想是我们下一步科技发展当中,能不能制定规则。什么规则呢?他说我这个做不到更刚性的,从伦理学来看看是不是建构一个东西,很快我们发现AI的问题,这个核心以此为基点来看一下到底想做什么样的事情。

  刚才主旨报告当中刘老师说信息文明,后来成老师老师也说智能文明和信息文明的关系,有一点我们必须把握到,信息圈可能是现在的,但我的观点是智能时代,比信息圈再低一点的是数据,这个数据可能有价值,很可能没价值。如果发现一个东西更低阶,我们是不是可以往前推一推呢,这个低阶的东西在里面是不是更重要,做一个深入的挖掘工作。这时候在信息圈当中或许有一个现实的抽象的层次在里面。这个层次当中提出,我们这个时代的Agency怎么样是符合的,比如说什么是一个Agent,又有什么样的Agency是符合Agent的,这时候用的信息视角来提出,比如说交互性,比如说自动行,比如说适应性。同时做了一个延伸,说这个转化系统多的时候它的后果是什么?今年2月份的时候我们课题组发了一篇文章,这不是最新的成果,最新是刚刚6月份上大的一个报告,最新工作当中往前推,他想说的是在智能革命的时代是多元化的,如果是多元化的那这当中道德能不能也通过多元化做一个反馈呢?如果能反馈,在伦理学政策当中是不是应该做一个反思性的工作,把它反到什么程度。这样的话如果是分布式的道德责任意味着什么呢?在追责的时候追到谁呢?为什么这么去做它。

  包括对抗性神经网络生成之后,它源头是谁?追责追谁?再往前推的时候,如果科技伦理当中能把技术延伸性的东西加进来,所有的伦理学必须是具有意向性的,所以他推出来的观点是我们有种新的伦理要素在里面,叫做无意向性的伦理。

  刚刚能动性的思考当中,有一个人叫Latour,他有一篇文章说我们现在道德迷失了或者道德下降了该找谁去理论,是我们教育不够,伦理不够还是更多的东西在里面?他说我们人还是可以的,可以在当中找另外一个东西,就是人和非人之间的折中点,这个折中点是什么?是智能问题、意志问题还是更多的东西在里面?这样我们就会发现Latour的观点引申的意义上出现一个新的东西,叫AMAs。当我们的技术发展多的时候,人工道德的行动者在什么程度上是成立的。他为什么会提出这么一个东西?当我们的自动驾驶到什么程度的时候就可以了?其实我们的道德分为功能性和操作性,在这当中有两个轴线,一个是革命的敏感性,一个是它这个技术是高还是低。

  其实你发现这个和人还有多远,如果按照他的观点来讲,整个生活当中从技术到技术再到技术,这当中人很可能会被排除掉,如果社会发展当中已经有了AMAs的时候,伦理的东西很可能会让人感觉到它拓展的空间很大,前述这种技术的发展开启了一个新的伦理可能性,有内在伦理学,我们该如何去研究它。2006年的时候有一对夫妻,他的妻子是伦理学教授,他本人是做计算机的,他们的梦想是通过计算机程序做伦理判断。

  然后我们再看另一个,这是我前面的一个工作,就是说我们怎么样让道德当中让技术有点价值在里面,人和非人之间人是有能动性的。《将技术道德化:理解与设计物的道德》,我的观点是即使技术发展了,也并不是我们常说的物体可以承担很多道德,它背后我更相信另外的东西,人在其中其实我们是更主导的。所以当时让我的学生写一个东西,“物是人非是成立的吗?”。他的梦想是突破传统伦理学的外部主义立场,从中推一个内部的东西,这样的话怎么推是合适的。

  调节不是交互,交互是互动性很强的东西,调节很可能是主动性,也可能是被动性。这我们可以从图象挖掘和商品推荐系统来看。认知调节,我们可以把某种知识当做伦理道德来判断它。那在数据挖掘技术中的伦理主体是什么?数据挖掘技术以构建数据自然界的方式重塑了伦理学的场所。还有道德调节者意指“有生命的和无生命的实体和过程,这些实体和过程将新的价值赋予人类、非人类,甚至还有注入未来的人和动物之类的“非物”。这里很重要的一个观点,生命智能社会复合体。

  最后举一个案例,寻求技术和伦理之间的最优化一直是技术与伦理学的共同目标。伦理对技术的审视不仅仅推动着技术伦理学的发展,同时也在为技术的发展保驾护航。再看价值敏感性设计,通过设计保护隐私,这时候就非常明确了,我们再看几大原则,第一个原则就是主动而非被动、预防而非补救。还有一个原则是隐私作为默认设置。

  再往后看一下“物是人非”,我们应该思考几个问题,假设它是成立的,进入什么?如何进入?

  今天讲一个比较具体的话题——自动驾驶,因为我报的题目是无人驾驶,但到底是自动驾驶还是无人驾驶这是一个非常有争议的问题,能不能做到无人技术上包括伦理上还有很多争议。前两天也是讨论人工智能和法律相关问题的时候,大家还是倾向于用辅助手段。我就来讲自动驾驶,因为自动驾驶比较快吧,因为5G的落地,特别在中国主要是2020年,所以2020年自动驾驶的落地可能会比较快了,现在技术上有更好的储备,但是在政策、伦理、法律的基础上远远没有做到很好的储备。

  第一个问题是上路,上路的问题现在有一些政治性法规主要是用于测试。现在主要是中国的一些地方,比方说北京做了一些可以上路测试的规则,但至于商业化应用的上路其实《交通法》还没有规定。大家都知道级别是从L0到L5六个等级的级别,现在最高等级,技术上应该说最先进的是奥迪A8,达到L3的级别。大概是什么情况呢?到车速低于60的时候,在拥堵的状态下可以启动自动驾驶的模式,高于60的话还是要人来操作。德国因为奥迪A8修改了法律,制定了20条的自动与网联化汽车交通能力规则,它是调整了,允许这种情况,但是我们国家现在还没有修改。

  第二个问题,产生事故之后产生的刑事和民事纠纷的问题。刑事主要涉及到两个罪名,一个是危险驾驶罪,一个是交通肇事罪。如果我们将来同意,就把自动驾驶的设备认定为司机的话,这其实美国是认定为司机,我们现在还没有认定,认定之后产生一系列问题,包括在法律上开了个口子,你要认定它为司机,那就相当于要认定这个设备有独立的民事法律主体的地位,这可能给机器人开了一个大的口子,接下来一系列是不是要给它民事行为主体,但美国是已经把它认定为司机了,中国还没有认定。一旦认定为司机的话就不存在危险驾驶罪问题了,因为它可以上路了。日常中危险驾驶罪有两个情况,一是赛车,还有就是醉驾,一定要认定之后这两个罪名和自动驾驶没太大关系的,所以主要是交通肇事罪。交通肇事罪指的是违反交通规则之后造成重大事故,致人重伤死亡和公司财产重大损失的。为什么说这是一个难题呢?就是说现在的交通肇事罪的主体是人,我们讲的是自然人,如果将来自动驾驶出现了致人重大事故死亡的话,现在是没办法认定,认定谁呢?肯定是机构或者汽车生产商,所以现在刑法是没办法解决这个问题的。还有如果将来有人用黑客技术,比方说用网络安全问题进去产生重大事故,这怎么来进行规定。

  在民法上主要是侵权责任法,到底谁来赔偿承担这个民事责任的问题,这里面大概思路是这样的,如果它不是独立主体的话这个责任肯定是归车主,如果是独立主体的话就有点麻烦了。如果产品有瑕疵有责任的话可能就涉及到汽车制造商或者说软件服务提供商来承担责任。如果不是产品责任,那如果是独立主体的话将来是不是有种可能,机器人或者自动驾驶的设备独立来承担。无人驾驶或者自动驾驶可能会把这些伦理问题先就产生了,自动驾驶还没有上路,但已经有人来找我们讨论这问题了。快递自动的小车在园区里跑已经撞到人了,产生纠纷了,他们解决不了就来找我们了。还有一个是举证责任的问题,还是挺复杂的一些问题,时间有限就简单点一下。

  第三个问题,伦理问题。因为我们人现在还讨论不清楚,大家现在很关心一个问题,人还没讨论清楚的问题现在要交给机器来判断,机器怎么做判断?人还没明白现在要让算法来解决,所以这是一个问题。另外还涉及到算法在紧急状态下做决策的问题,我讲一下德国的法律调整,德国的最新交通法中规定驾驶者在使用自动驾驶的时候仍然有警觉和随时接管的义务,这主要是针对L3的,在紧急状态下要干预的,不干预出了事故是车主的责任。同时德国的法律里也有冲突的地方,就是和道路交通修正案配套的自动驾驶伦理准则中,准则第十九条中规定说制造商和软件提供商不能在紧急状态下要求人的介入,因为这涉及到人本的原则。留给人的时间可能很短,就五秒钟或者十秒钟,现在突然说自动驾驶把持不住了,请人来做决定,这对人来讲不公平的,特别是对于年龄大的人,五秒钟反应不过来,说这个责任就是你的,这很有可能成为自动驾驶服务提供商推卸责任的条款,这个伦理准则中说是不允许的,特别对于一些老人或者是不太对的。

  还有刚才杨老师讲的隐私问题,在我看来是个最大的问题,我个人不管是自动驾驶还是什么,将来自动设备最大的问题就是隐私问题。相当于多了一个数据采集,你能随时唤醒就意味着它随时在采集你的数据。自动驾驶也是这样的,包括网络安全,包括隐私在我看来是最大的问题。还有失业的问题,我举一个数字—滴滴,滴滴号称给2100万人提供非正式的就业岗位,在自动驾驶落地的过程中,这2100万会逐渐地没有了,所以自动驾驶的落地在我看来是个系统工程,总书记前两天世界智能大会的贺信非常好,把我们重大项目的意义完全突显出来了,人工智能相关的法律、伦理、政策、安全、隐私等等,恰恰是段老师来引导我们的题目。

  我汇报的题目是软件的权力与治理。应该说我们整个团队在两三年前就一起讨论软件权力(算法权力)的相关问题,记得三年前和段老师在一个会议上比较详细地交流过算法权利及伦理问题。这些年算法权力(数据权力)的问题似乎炙手可热,已经有了不少文献对其开展严肃地探讨。整体而言,我们的研究有自己的一个进路,在对这个问题的研究中,一直是有几个问题在引导我去做一些深入的思考。首先,第一个问题就是人类未来生存的空间到底是什么样的?这是非常让我着迷的问题。其次,第二个问题便是软件在未来人类生存空间中究竟处于什么样的位置?扮演什么样的角色?软件和生存空间中权力问题是什么样的关系?。最后,第三个问题是新的权力架构下的伦理考量。

  我今天的汇报可能会触及对这些问题的一些思考。首先,关于第一个关于人类未来生存空间的问题。之前我对软件本质做过一个追问,在计算机学科中,软件的概念是一个非常基础的概念,安东尼·泉朵、皮特·舒伯、蒂莫西·柯尔本、詹姆斯·摩尔等学者对软件都进行过深入的研究与分析,然而大多数研究是从技术层面来分析软件,我认为软件应该从人、软件、计算机三元视角去考察,同时,应该跳出纯技术的视角,在这样的视角下会发现软件会因人而异也会因机而异。沿着这条思路,我们得出:软件本质上是人与计算机形成的共同编码,并在转导层次上形成共同的逻辑。在这个基础上,我们进而思考到人类未来的生存空间,以往人本主义我们会很自然地把世界或者把我们对意义的追寻是以人为主体的。然而,在软件的调制下,人类未来的生存空间其实是以人和机器为共同主体,以软件为核心去建构这样一种生存空间,一种新的意义空间。在某种意义下,这种空间和弗洛里迪的信息圈有相似之处。

  当然,我所说的这种人类未来生存空间与现在所提的网络空间(cyberspace)有着本质的区分。实质上,人们现在所言的网络空间或者虚拟空间已经终结,它们正成为人类生存空间的一个维度,是人类所追寻意义的空间的延展。

  在这种人类未来生存空间下,我们将进一步追问软件所扮演的角色?我认为,软件正在重新定义这个生存空间的权力结构。如果你从软件即媒介的视角的话,麦克卢汉有过很明确的对媒介权力的阐释;如果你从软件知识的视角,利奥塔、福柯等人都对知识权力做过精辟的分析;如果从软件信任的视角来看,现在类似比特币和区块链就是这种权力的一种主张。通过这三种视角,软件成为一种未来人类生成空间中很稳固的权力基础。值得一提,我们所言的软件权力涵盖现在很多学者提出的算法权力和数据权力问题,在计算机科学中,就通常将软件定义为“算法+数据结构”。

  我所定义的软件权力实质上有三种构型,这三种构型是我刚才说到的人、软件、计算机三元关系派生出来的。它包括:机器-软件权力,第二是人-软件权力,第三个是机器-软件-人权力。

  机器-软件权力构型是现在很少被关注的。所谓的机器-软件权力是以机器作为主体的权力主张,其实这种主张已经在不经意中正得到一些回应,比如说现在很多政府要求的开放数据必须是可机读的,不仅仅是人读,要保证你的数据对机器是可见。另外,在许多自然语言处理中,人类对各种语料库的语法或者语义标引也是对机器-软件权力主张的回应。

  第二个权力构型是人-软件权力,对这种权力现在大家讨论特别多了,包括现在大数据的数据权力会影响到社会政策,例如2016年的英国脱欧,2017年美国大选。另外这种权力对金融已经实施了深刻的影响,现在应该65%以上的交易都是算法交易,此外最近大家非常关注类似亚马逊平台上的算法定价的公平问题或者垄断问题。还有算法权力在司法领域的影响,2018年朱莉娅研究了在美国司法部门广泛采用的犯罪预测软件存在对美国黑人的一种歧视。还有算法权力在社会保障中的影响,像尤邦克斯也是提到了算法或者数据滥用导致的一些社会本身不平等的加剧。

  最后一个构型就是把机器-软件-人权力,这个构型实际上是没有太多人去研究,但实际上存在一个问题,当一个机器如果只是人的代理,它应该在整个权力中承担什么责任?这种权力构型是对人,对社会的影响又如何?

  最后就是我对这种软件权力的规训以及治理的思考。软件权力会引发公平性、知情权、个人隐私等众多的伦理问题,我们该如何应对?我们如何去对软件权力进行审计并问责,都是摆在我们面前的严峻挑战。

  我们对智能革命的理解,智能为先,革命为后。我们回到智能革命本身,一个是涉及到智能本身技术的思想史,另外一个就是说对智能理论基础的反思。这两个主题的讨论来自于一本书,就是明斯基的《心智社会》。在计算机界的最高奖图灵奖中,目前为止有五个人因为AI方面的工作获得了图灵奖,其中第一位就是马文·明斯基,1969年,他获奖的理由就是因为人工智能理论和技术方面的贡献。马文·明斯基前两年才去世,他另一个身份也是人工智能1956年达特茅斯会议的发起人。因为从工程技术角度来看,我们讲获得图灵奖的五位科技工作者当中喜欢从事战略性思考的,其实主要是马文·明斯基和赫尔伯特·西蒙,但马文·明斯基的书偏大众化一点,他还有一本书《情感机器》,目前这两本书目前都翻译成中文了。

  其实这个标题有点误解,因为马文·明斯基在这里做了一个区分,他盗用了Society,这个词其实在这里并不是我们讲的人类社会的本义,他用community这个词来指日常意义上的“社会”,而我们知道community一般翻译为“社区”。这本书的产生是有特殊性的,就是说马文·明斯基他有一个习惯,喜欢把书的手稿先散发,在同行当中散发了大概10年以上,到了1986年才把这本书出版,所以这中间有个比较好的和同行之间沟通的过程。《心智社会》既是书名又是关于他关于自然智能的基础理论的名称。这本书很通俗,正是因为写的太通俗了,好像每个人都能懂,但读下来的话里面的内容还是非常深刻。这本书的思想来源很多,其中不少是明斯基指导的学生,但该书的起源是70年代早期与认知科学家派珀特在MIT合作开发操作儿童积木世界的机器人工作。

  这本书是一个比较奇怪的体例,中文版翻过来的体例就看不到,英文版是有270页,每一页就是一篇独立的短文。为什么他要这么做呢?他认为我们没法用一个简单的理论来描述,也就是说在人工智能领域没有办法用简单的理论来描述智能的原理,所以他的文章题材这么来安排,用270页相对独立的短文,从这种杂乱的材料组织当中反映智能的产生原理,这反映他对于智能的根本看法。

  这本书是一本商业上的畅销书,trade book。正是由于内容组织这么杂乱,我们知道明斯基提出了AI研究方法中的两个概念,scruffy和neat,前者可以翻译为杂乱派,后者是整洁派。他把自己算在了杂乱派,另外一种是整洁派,需要对知识进行形式化处理。这本书的主题我尝试着做了一些相关的梳理,大概包括幻灯片上的这些。关于思维的形而上学思考,思维的本质和来源、思维与智能、人类的“机器隐喻”、自我、智能的本质。还有心理学假设和模型:记忆理论(K-line)、A-B脑假设、问题求解。他自己的框架脚本在这里做了一个扩充,叫Trans-Frames。还有他讨论到了伦理学。另外他基本上把逻辑和推理的重要性做了否定性的回答,所以我们把它当成明斯基从事人工智能开发时,不管是来自于项目实践还是来自于未来构想的一种智能理论基础。

  为了加深对理论的核心理解,我从书中提炼出了一些词句,例如思维的本质:它的能力似乎就是源于那些智能体之间复杂的交错关联。这里面就不太仔细去念,例如因为在人工智能研究方面会用到语言,他就说语言其实是没有多大用处的,语言只是指挥它干什么活的工具。

  这里随便举出几个例子大家都非常熟悉,他和同行这么多人交流,因此思想来源就非常的庞杂,包括学生的一些博士论文。他思想的很多内容来自于GOFAI,但这里面也有些问题,西蒙讲的其他一些符号假设基本上是不看,或者完全否定。第二个方面是关于记忆的理论来自于联结主义。还有一部分讲小孩子怎么获得智力和思索行为的,另外也大量使用了弗洛伊德的精神分析,还有进化生物学和分析哲学。为什么这本书比市面上其他的那些书要值得重视,毕竟他算是AI这个行业的大师级人物,很多东西值得思考。

  从这本书中获得的一些启发,第一个是关于Agent的含义问题。Agent的含义有多个,首先有经济上的含义,另外我们讲软件工程的Agent自治性不是SoM中Agent的核心特征。第二个讲明斯基遇到很大的难题,因为按照他的理论逻辑是没有自由意识的,但是如果没有自由意识的话只有两种方式,一种是决定论,一种是概率论,这两种方式会使人面临道德困境,后面明斯基说虽然我们认为没有自由意识,但不得不坚守错误的假设,自由意志必须存在。明斯基把存在自由意识当做工具论来假设,而不是科学解释。第三个就是说AI,缺乏非常强的理论基础,那SoM这个层次对于奠定AI理论基础是否有必要?在当前阶段,SoM在哲学、心理学与实际的AI工程问题之间搭建了一个灰色的桥梁,为什么要灰色?第一如果你是黑色可见的那需要证伪,这个很难。如果是白色的那就是空谈,所以需要有一个灰度,有初步的解释模型。第四个是我认为最值得思考的地方,究竟什么样的科学理论适合作为AI的研究基础?还有我们讲一个总结,没有科学哲学的科学史是盲目的,没有科学哲学的科学史是空洞的,因此,如果没有合适的智能理论基础和哲学指导,AI技术实现将是失控和可怕的。

  我前面讲了算法权力后来不讲了。我大概讲几个概念,第一个所谓的世界的数据化与解析社会来临。所谓世界的数据化就是说世界就是数据,数据是当初翻译《确定性的寻求》的时候讲data,他讲的是素材,所以现在讲的数据是指素材,可以电子化的素材,比如说我到这讲有录音有录像,这就叫素材。现在由于这种数据处理的成本降低,所以我们就能够把很多东西记录下来,虽然记录下来有各种各样的目的,但一旦记录下来以后就可以变成一个素材。讲世界即数据,数据即世界的时候,我们要考虑到知识的背景,就技术到底在多大程度上实现的这个东西,而不是抽象认为世界就要数据化了。就像你滑雪,你在阿尔卑斯山滑雪用的雪橇和在其他山滑雪用的雪橇是不一样的,所以当我们谈论滑雪的时候是要谈论具体的雪橇和在具体的山坡上是怎么滑雪的,我思考问题是这么思考的。

  第二我们可以对于当代的,从社会治理到个人治理都有种量化,所以这种量化的治理在17世纪的时候有本书叫《政治算术》,到1980年代有本书叫《控制革命》,专门讲信息技术发展的历史就是为了克服控制的危机而形成的控制革命。大家知道这种控制革命经过改变,就是在50年代的时候,我们曾经想到智能的乌托邦是巨型机器的统治,但到了互联网时代有种可以独立的感觉,但没这么美好,由于谷歌搜索引擎的出现,所以出现了权力的反转。就是说当用户在使用数据的时候,相当于把你的行为泄露出去了,所以在这种情况下我们现在的世界是关联世界中的数据,所以我们讲关联世界中的数据的时候,我觉得作为哲学家不是从字面上来讲,而是要想有哪些东西是没关联进去的,我觉得这才是我们真正要思考的。

  还有从主观自我到量化自我,每个人每天都在伪装着展示自我,其实人都是在装和不装之间,在你装和不装之间有个办法来测量你,就是量化,它把你量化成一个好人就是好人。现在来讲就是解析社会,我们有一个隐喻,现在是一个数据的套进,使得我们有了近代的科学,我们有了显微镜、望远镜,从地球上就能知道太阳上的元素,所以在这种情况下我们通过数据来研究人,就像我们在17世纪的时候用数量化的方法加上几何方法来研究自然一样,所以当下社会是解析社会。所谓大数据、算法社会等等这些说到底就是用数据来琢磨人、算计人、研究人,甚至每个人可以把数据拿来“照镜子”。

  第二就是算法生活以及算法权力,现在的算法是无处不在的。从很早以前从保险费率的计算到航班的起降,它都用到算法,只不过现在大数据分析和机器学习的发展使得算法的应用越来越广,影响越来越大,如果有人把你列入黑名单就哪也去不了了。比方说监狱里的罪犯放不下了,决定释放谁,就有一个软件来预测放出去以后犯罪的可能性是多少,如果再犯的可能性很高的话就不放。这种算法的滥用就被称为“数学杀伤性武器”。什么意思呢?它实际上只考虑到一个方面,没想到一个人本来刚要放出去,但又把他滞留等长的时间,那么他出去以后犯罪的可能性是不是更大,没有考虑这样一些因素。

  这些基于事实的分析,最重要一点是形成反馈,数据对人的测量是一种交互的类型,交互的分类。你不要小看每个人的名字,我叫你什么名字其实就会影响到你的命运。比如说什么叫锥子脸?以前有锥子脸这个概念吗?没有。这是建构的,所以在现在这样一个大数据或者人工数据来说有算法的权力,有的是可以通过邮件去找哪些人在公司里是创意的生成者,哪些人是连接者。它到了公司不景气的时候决定要开除哪些人,留哪些人,还有的时候甚至对客服中心的,每16毫秒都要测你的声调和姿态,根据这个来去研究你,所以算法的权力主要体现在自动化处理下的决策。

  最大的问题是什么呢?它比人思考和计算的更快更全面、更准确,这是它最厉害的。在这里它有一种测量的循环,现在社会最怕的是人家关注你,关注你的一言一行,对你的一言一行进行数据分析,一旦关注了以后就强化对你的测量,测量这里有个循环,比方说我认为某个地方的犯罪率很高,那就加强这里的力度,加强之后的结果是这里发生犯罪率更高,或者我认为你是有犯罪倾向的人,那时时刻刻都盯着你,那最后你的结果也可想而知。但是这个循环里最重要的问题是可能性政治,就是你可能会做什么,其实这个可能性政治早在宋代就有了。

  这里面最大的一种算法权力当然包括评价、关注等等很多,但这里面最大的政治就是权力对于事物的控制,而控制中最强的一种行为莫过于主旨,主旨从古到今有三种政治本体论,第一种叫做主打,第二叫威慑,第三种就叫先发制人。先发制人就是在911之后,美国人说伊朗有大规模杀伤性武器,注意这并不是撒谎,这是现代政治的善变,一种革命性范式的转换,就是认为你有可能有大规模杀伤力武器,就要把你这样的一种可能性扼杀在襁褓当中。为什么能够做到这样?因为我们有数据智能,这是关键的。

  所以在这样的时代会有伦理上的考量,最重要一点就是能动性,什么叫能动性?在这样的时代很重要的是你是被知道的还是你可以知道别人?所以就有三种监控模式,一种是从上至下,还有一种是从下至上,另外一种是自助式的监控方式。这种能动性里最重要最重要的是每个人的数据画象,它是根据你所有的数据标签对你进行分类,看了什么录像、书,做过什么事,到过什么地方,和什么人是朋友,有这样交错的组合,这样一些组合最重要一点好像是你的“孪生兄弟”,但很重要一点,它是没有新的,是没有Agency,这个Agency别人想要你成为的那个,所以这不是数据孪生,而是你的数据僵尸。

  从这个角度我们就会有伦理的建构策略等等,你要避免成为数据的僵尸,这些建构策略中就是说怎么样去寻求人与算法关系的再平衡,始终要从人的角度去评判算法,这个算法要赋能,同时还要增强每个人的能力。第三个人与算法要有伙伴的关系。

  最后我们要讲所谓的生命-智能-社会复合体,这个概念很重要一点就是我们的生命和社会在进行一场智能化的整合,所以现在重要的问题就是哪一些人是不被整合进去的,哪些人是处于优势地位的,这里就涉及到人工智能赋能的包容性。

http://albacheval.com/renzhifangzhen/332.html
点击次数:??更新时间2019-07-03??【打印此页】??【关闭
  • Copyright © 2002-2017 DEDECMS. 织梦科技 版权所有  
  • 点击这里给我发消息
在线交流 
客服咨询
【我们的专业】
【效果的保证】
【百度百科】
【因为有我】
【所以精彩】