01
警惕技术“黑入人心”
吴伯凡(北京大学新媒体研究院研究员):赫拉利教授说过一句话我印象非常深刻:
在今天,你听从内心的声音比以往任何时候都危险,因为你不知道你内心的需求。你的声音不过是一些洗脑术和广告,悄悄地植入到你内心。你想要的其实是别人想给的,但你自己是不知道的。
我想到了一个词,“新黑客”。以前的黑客攻击你的电脑、手机,去解锁你的银行密码。
今天,出现了一种更强大的黑客,它直接解码你的内心,攻击你的大脑,你在不知不觉中就被它操纵,而这种操纵的感觉你是一点都没有意识的。你反而觉得是出于你的自由意志,这是我们今天人类在重新被技术定义的一个表现。
尤瓦尔·赫拉利(以色列历史学家):因为现在的技术是有“黑入人心”的能力,这可能是我们这个时代最大的革命。这种“黑入人心”的能力意味着它可以获取海量个人数据,并有足够的运算能力来分析数据,最终它能够比你更了解你自己,它能够预测你的行为,可以操纵你的决定和选择,甚至被操纵的人都不知道自己被操纵了。
所以人们常常说自由意志,好像就是我们完全可以自己做决定,实际上自由意志就是被操纵的决定,你对自己做决定并不会深思,你会说这是我想要的,但其实你是在被操纵的过程,自由意志只是体现你背后被操纵的过程,你会在这个过程越来越陷进去。
越是认为自己拥有自由意志的人,越容易被操纵,而这一现象会越来越极端。因为到目前为止,大多数我们能够收集到的个人信息都还是“表层信息”(above the skin),是外在行为,包括你看什么电视,你到哪里去,跟谁见面,跟谁吃饭。
现在到了一个分水岭的时间,数据可以检测到我们的“皮下信息”(under theskin),也就是过去是从身体外部拿数据,现在的技术完全可以从人体内部,从大脑和身体里获得数据,拿到你的温度数据、血压、大脑的反应,甚至一些生物的表征。
我们身体里面的这些信息是我们自己不知道的,我们自己不知道我们的血压是多少,但是操纵我们的人只要看一下我们这些数据就真的能够看透我们的内心和大脑,然后他们就可以操纵我们的行为,这是历史上从未有过的。
吴伯凡:过去我的信息不想让你知道,这叫隐私,而今天的隐私是很多我自己不知道,但是你通过数据、算法,你比我更了解我不愿意别人知道的信息。
这种情况下,它就像一个特工、一个间谍,在我的内心不断地把我的所需所求全部告诉我不愿意被告诉的那些人,然后这些人以很巧妙的方式来影响我,这就是第四次革命——数据革命、智能化革命,所导致的一个新的不一样,这个不一样就是以前的技术只是在改变我们的政治经济面貌,今天的技术在改变我们的身体,改变我们的内心。
02
社会进一步分化
将导致人类更加不平等
1、当下面临的生态危机
吴伯凡:我们今天面临着两种生态危机。
第一种危机是我们已经意识到的由于气候变暖导致的一系列危机。如果气候变暖,沿海城市有可能被海水浸没,一些病毒有可能开始苏醒并进入到我们的世界,这将会引发一系列未知的灾难。
第二种生态危机就是我们社会的生态会出现一系列问题,比如颠覆性的技术——数据技术、生物技术等,会改变我们人本身。
以前技术是在改变我们的社会,改变我们的经济,现在改变人本身,比如你到了50岁的时候,突然有一种技术可以让你回到20岁的身体状况,但是只有比较少的人才能享有这样的特权。以前人类整体上在寿命上都是平等的,不管富有还是贫穷,大家都是活这么大岁数。
如果这种技术发展起来,会导致人与人之间的终级不平等。比如你可以花2000万美元给自己的孩子在基因上做一些改造,你的孩子一出生就智力比别人高,长得比别人漂亮,没有钱的人就只能忍受因为贫穷带来的这种不平等,这会导致一系列社会生态的改变,这是我们今天必须面临的两大危机。
2、颠覆性技术,会使社会生态发生哪些改变?
尤瓦尔·赫拉利:我们没有办法预测未来到底会怎样,因为这取决于我们今天所做的决定。每一项技术都可以被用来创造完全不同的社会类型,在20世纪,完全相同的技术可以被用来创造像纳粹德国这样的极权统治,也可以被用来创造自由民主主义,它们背后是相同的技术,但使用方式却大相径庭。
现在21世纪的新技术,包括人工智能、生物工程技术,这些技术有可能会导致一个极其不平等的社会。在这个社会中,极少数的特权阶级正在获得新的人工智能技术产生的巨大权力和财富,然后利用这种权力和财富,通过基因编辑技术在生物上提升自己,使自己变成某种超人。
这不仅仅是我们在历史上看到的社会阶层之间的分化,而是更深层次的生物鸿沟,会把那些掌握了生物技术的人和没有掌握生物技术的人完全分化开来,这是一种以前从未存在过的不平等。
这不是预言,如果我们不小心,如果我们不明智地使用这些技术,就会导致这样上述社会状况产生,但这并非不可避免。作为一个社会,作为一个群体,我们一定要去认真考量人工智能所产生的巨大能量,它不应被社会精英独享,而应该被社会共享。
同时,我们还应将重点放在生物工程的新技术上,而不是把少数精英升级为超级人类,应该通过这样的技术来治疗大多数人所面临的疾病,为所有人创造良好的医疗体系。
问题不在于这些新技术本身,而在于我们能用这些新技术做些什么。我们作为人类应该做出正确的选择,否则结果可能是灾难性的,我们今天的技术比过去任何时候都强大,如果我们不能明智地使用它们,所导致的后果也会更严重。
03
科技向善
是个人和社会共同的命题
1、智能手机的魔咒
尤瓦尔·赫拉利:我并不是反对技术,拒绝用智能手机,我认为这项技术对于我们人类来说有很多好处,带来很多的便利,只要我们清楚自己的目标是什么,更好地了解自己进而更好地利用技术,而不是沦为技术的奴隶。我们应该有一个明确的目标:技术服务于人类。
因为我是作家和思想家,我需要很多时间来沉浸在特定的书中,特定的问题上,需要有很多沉浸在自己世界里的思考时间。但智能手机是人类社会有史以来最让人分心的东西之一,因为世界上最聪明的人多年来一直在研究如何吸引和留住我们的注意力。
智能手机会分散我的注意力,碎片化的知识、纷繁复杂的信息可能没有办法让我更好地沉浸下来去思考问题,我很清楚知道自己的目标是考虑更广泛、更深度的问题,我需要留给自己深度思考的时间,我需要集中精力。
我知道自己的自控能力不够,我倾向于对自己的弱点有更现实的看法。我们不能高估自己控制思想的能力,更不能低估这些设计设备的工程师的能力。
如果我不能强大到抵制这种器械和科技给我带来的困扰,我宁愿拒绝这种器械和科技带来的便利性,所以我比较小心谨慎。
2、我们应该跟技术保持距离
吴伯凡:我记得赫拉利教授讲过在人工智能等各种颠覆性技术出现的时候,我们的教育应该是什么样子的,他提到了4个C:
第一个C是critical thinking,批判性思考;
第二个C是communication,沟通和交流;
第三个C是collaboration,合作,
第四个C是creativity,创造性。
沟通的能力、创造的能力、批判的能力往往需要有洞察的时间,你不能被外在的零零散散的各种信息牵着鼻子走,而是应该针对一个问题深入地去挖掘它,或者要全身心地跟一个人沟通交流。
我们不是要去获取更多的信息,而是要提高自己的创造性,所以赫拉利教授的这种态度虽然是个人化的,但我相信我们每个人,如果想在4C上有所作为的话,都应该跟技术保持一定的距离。
同时,他的主张让我想到他在《人类简史》提到的一个很有意思的观点,人类自从使用火以后就开启了一种很矛盾的状态,你可以去使用火,但火最终造成的后果是你无法控制的,比如说一个身体很弱的妇女,她只要手里有一块打火石,她就能够让一片林子在两三个小时烧成灰烬,这完全超出她的体力。
这个事件预示着人类20世纪出现的核危机,一个飞行员在飞机上只需要按上一个按钮,这是非常小的身体动作,但是造成的后果是毁灭性的。
这意味着,人类拥有的技术会越来越强大,但人类管理技术、如何让自己去使用技术的能力并没有随之而变强,这是非常要命的事情。
我们今天创造的信息越来越多,但管理信息、管理自己行为的能力并没有比古人强多少,这是我们今天要保持一个良好的个人生态和社会生态必须要考虑的问题。
3、如何避免成为技术的奴隶?
尤瓦尔·赫拉利:其实我们可以有不同层面的行动计划,比如个体层面、公司层面,工程师层面、政府层面和整个全球的层面。
从个人层面来说,我觉得最重要的使命就是认识和克服自己的弱点,因为这是我们的一个可能被技术操纵的门户。这个处理的方法有很多,很多书中早有阐述,在过去几千年里有各种各样的哲学家、智者、预言家发出警告,我们必须非常了解自己的弱点,克服自己的弱点。
现在,这比以往任何时候都更紧迫,因为你有比以往任何时候都更强大的竞争对手。
千年前,孔子和佛祖都劝诫人们要更了解自己,但当时并没有一个外在的力量或个人可以真正进入你的内心,与你去比拼到底谁更了解你自己。
现在我们有新的挑战,也有很多好的技巧来更清晰地了解自己:有些人会接受专业的心理咨询,有些人会利用艺术、展览、作品,有些人会去户外运动,或者是自己出行两个星期独处来了解自己,最重要的是在有限的时间内很好地了解到我们自己的弱点,这是个人层面的建议。
个人层面你是可以自己来进行改善,但如果已经成了一个全球的问题,或者是成了一个巨大的问题,个体无能为力去解决的话,我们也需要来自创造这项技术的企业和工程师的帮助。
企业应该加强社会责任感,不光为了挣钱,还要考虑会给社会带来什么后果,要对社会负责。我们现在遇到的很多问题都是社交媒体和智能手机的问题,这背后没有什么邪恶的意图,对企业来说只是创收的生意。
企业CEO可能会跟工程师说,我们的用户每天在我们平台只花20分钟是不够的,希望到今年年底,他们可以每天花40分钟。这对工程师来说是任务,然后,一帮聪明的人开始研究如何吸引我们的注意力,如何操纵并攻击我们的思想和精神。
所以,我们为工程师开设程序员课程时,必须把道德作为学习的一部分,程序员要有基本的道德和准则,你在编程的时候,其实你可以带来整个世界和人类的改变,你正在创造一个全新的世界。正如同在医学上,没有学习过医学伦理课程的人,是不能成为医生的。
最后,我们需要政府的监管,不仅仅是某个国家的政府,而是全球的政府,如果放任不管的话,有可能会造成一个大的危机,到最后谁也无法制止它的坏影响。特别是当涉及到最危险的事态发展时,我们需要某种国际协议。
比如,机器人杀手是非常危险的技术,全球各个国家政府应该达成规则协议。不然会出现这样的情况:我们安分守己,但是我们害怕竞争对手,在核武器或者AI的实验中违背协议,做一些可能对我们产生威胁的事情,这是一场AI军备竞赛。在这一场竞赛中,无论谁胜利了,最终伤害的都会是人类自己。
每一个人都害怕自己的竞争对手变得邪恶,然后自己就没有办法独善其身,这样会形成一个非常坏的恶性循环。
同样,在数据所有权领域,信息和数据该由谁来掌握?
我们正在经历另一场军备竞赛——数据军备竞赛,竞争的双方是中国和美国,中美之间到底谁来拥有全世界最主流核心的关键数据,大家彼此之间有很多的恐惧。现在如果想控制一个国家,并不需要派兵驻扎,只需要掌控这个国家的数据就可以。
设想一下,20年后世界上的某个小国,没有外来的军事驻地或军事威胁,但是这个国家的所有数据都被存放在别的地方,包括所有政治家、记者、军官的全部个人信息和医疗记录,这样的数据一旦泄露,这个国家就变成了数据殖民化的国家,不需要派兵,不需要打仗就能被别的国家控制。
所以,数据不仅是一种资源,而且是国与国之间竞争的一种非常重要的力量。过去的战争都是围绕土地,而今天数据正在成为一种新的竞相争夺的资源。我们需要在国际层面来达成协议,避免出现数据殖民主义或者数据帝国主义。
04
逆全球化的时代更需要合作
尤瓦尔·赫拉利:过去这几年,因为各种原因,全球的国际合作在退化。所以我们能够看到全球在应对新冠疫情的时候,科学界和政治界对疫情的态度存在着巨大的差别。
在科学方面,我们看到世界各地的科学家和医生进行着令人惊叹的合作,他们共享信息,然后共同研究这个病毒,找到病毒的源头,发现疫苗,提出解决方案。
在这次疫情期间,在科学层面上,人类合作的程度超过了历史上对任何一次流行病的应对。但是我们政治层面的合作非常糟糕,从疫情开始到现在差不多一年的时间了,但是在全球我们没有一个强有力的领导,也没有全球性的行动计划,国与国相互指责,故意散布错误信息和阴谋论。
我们也看到了对资源的争夺,各个国家打疫苗战,都想成为第一个拥有疫苗的国家,并利用疫苗来获得经济和政治优势。
我们人类现在共同面对的敌人是病毒,你可能觉得在这个共同的敌人面前我们合作应该很容易,但国际层面并进行没有很好的合作来对抗病毒和经济危机。此外,人工智能和气侯变化方面的合作也并不乐观。国际社会需要合作,但并不是说人类愿意合作。
我是一个历史学家,我太了解人性了,人是世界上最聪明的动物,我们都知道正确的方向是什么,但往往我们会往相反的方向发展。在20世纪的两次世界大战,还有其他重大灾难中,人类真的可以以愚蠢的方式行事。
我们现在最大的危险是人工智能和生物工程等新技术,以及气候变化的危险。随着技术的发展我们犯错的能力虽然看起来好像是减弱了,但实际上并不是。
历史上的前一次重大技术革命是始于19世纪的工业革命,在过去的一两百年里,人类一直在用不同的方式努力构建一个更繁荣、更好的工业社会,用蒸汽机,用汽车、火车、无线电为我们创造更好的生活,最终建出来的社会的确更好,21世纪初的世界比以往任何时候都更加和平和繁荣。
但同时我们也有一些巨大的失误,在工业革命之后我们经历了殖民主义,欧洲工业强国殖民和剥削了世界大部分地区。
我们还经历了两次世界大战、大屠杀、冷战,在经历一系列的失误后,我们终于得到了正确的结果。如果我们未来有第三次世界大战,以今天这样的技术,几乎没有人能幸存。
我希望人们能够做出正确的决定,但现在云端也没有一个上帝来告诉我们应该怎么做,也没有对我们有利的自然法则,曾经在地球上存在过的99%的物种已经灭绝了,所以对一个物种来说,最自然的事情就是灭绝。
我希望在接下来的一个世纪里,我们能够找到合作的方式,能够真正的做一些应该做的事情,从我们的力量中拯救自己,因为我们的力量本身已经威胁到我们的存在,我希望人类真正有智慧地去使用这种强大的力量。
发表评论