塞弗伦科技公司(Saffron Technology)的首席技术官保罗·霍夫曼预言道, “我们会看到认知思维自动化的未来,就像现在口袋里的便携式计算器一样。”。
塞弗伦公司的程序也能根据持续的数据输入自动建模;程序内也有层级,但是强调语义和数据方面的推理。“我们可以分析文本、提炼语义、形成语境、进行计数,然后,你可以计算熵值、找出相关性、建立矩阵。基于此,你可以预测整个模式。”霍夫曼说。目前,他们的目标市场客户只有一个——政府。
除了身为SAP实验室研究副总监的霍夫曼,塞弗伦还有一个重量级人物,前国家安全顾问、DARPA研究员约翰·波因德克斯特。2001年9·11恐怖事件之后,波因德克斯特推行了一个彻底的监控和恐怖分子定位系统,叫做全面信息识别计划(Total Information Awareness,TIA)。这一系统包括分析邮件、照片和实时监控录像,及时探测可疑行为。批评家称之为“大规模监控计划”。很快,该计划被撤销资金,波因德克斯特也随后离职。
具有讽刺意味的是,这个让波因德克斯特丢掉工作的提议,与监控关系不大。该计划的一部分内容是建立一个“未来赌场”,激励信息的发掘。其原理是:如果你是“情报界”(这个概括词不仅包括现役情报人员,还包括前情报人员、告密者和分析员,即全世界范围内的情报网络人员)的一员,而你对某个犯罪或恐怖主义意图产生怀疑,就可以对事件结果的可能性下注,并赚钱。根据波因德克斯特的理论,如果分析员或告密者可以直接或匿名方式获利,就更有可能提供更有价值的信息。
与“9·11”恐怖袭击之前各联邦情报部门收集和协调信息的方式相比,波因德克斯特的预测方式显然是一大创新。他认为,自己的方法更准确和有效,而传统的信息收集方式则远不及此。结果证明,这在政治上也引起轩然大波。
如果你今天来看这个“全面信息识别计划”,似乎就没有10年前那么有争议了。其中提出的一些信息收集方式已经被全世界的执法和反恐部门采用。很多在线预测市场和机构已经崛起,人们可以对任意数量的全球事件下注。
“全面信息识别计划”已经成为现实。
我问霍夫曼是否也担心隐私问题,正如很多人所说,我们正走进一个大规模监控的时代。
“隐私已经成为历史的雷达上一个物体光点了。”他告诉我。
他拿起面前涂着厚厚一层黄油的点心,咬了一口,又喝了一口冰红茶,冷静地继续说。
“在我8岁以前,一直住在奥地利一个小村庄里。后来我父母带我搬到了维也纳。人生中第一次,我感受到了什么叫隐姓埋名。没有谁认识我。现在,世界已经成为地球村。每个人都能了解任何人的情况。”
1998年,也就是马克·维泽发明出“普适计算”术语来描述我们都成为被动的聆听者的大约10年后,科幻小说作者、未来主义者大卫·布林出版了一本非小说著作《透明的社会》,探讨普适计算的未来影响。第一章里就提出了两种未来的场景。第一种,整个国家都处于奥威尔式的彻底监控当中。而第二种,强大而活跃的市民们占据了控制地位,运用觉醒的环境带来的新技能反击并战胜那些自称公众秩序守护者的人们。
“在即将到来的信息时代,摄像头和数据库会像番红花或杂草般滋生,不管我们是否喜欢这样的局面。长远看来,身为人类的我们必须作出决定。我们能否忍受严密监控下的生活……所有秘密全部公开……换来的是自由掌控的闪光灯,照出任何可能对我们不利的人?甚至包括狂妄自大和力量强大的人?还是说,我们认为隐私的价值不可磨灭,宁愿放弃洞察权势者阴谋的权利也在所不惜?”
如今,我们有能力通过本书介绍的服务和方法,充分利用数据,来建立我们自己的闪光灯。或许,我们不想和莱夫·波西菲尔德一样,在下水道里装传感器,或记录下福岛的风力风向,但是,其他人用来检测变化的工具,很快都可以走向公众。不管是否抓住这些机会,至少,前途有光亮。
预言中的信息时代已经来临,隐私幻觉已经公之于众。我们自愿将我们的生活、我们所爱的人的生活,暴露给全世界,当大众认为这些最深的隐私无关紧要时,还觉得被他们轻视了。对我们很多人来说,自我暴露已经成为一种奇怪的强迫症。而我们剩下的人看来,这是一种越来越频繁发生的事故。
我们最好要记住,在建立更智能的世界时,那些最有趣、充满希望、关系重大、拯救生命的工作,并不是跨国公司、独裁者们完成的,而是普通人:车库里工作的企业家、积极分子和黑客。政府办公室或公司里,没有任何人完全明白当今世界正向赤裸裸的未来转变。
我们正站在一个全新世界的边缘,我们的系统感知当下和未来的方式,与数百万年前我们学习预测未来的方法如出一辙。但是,尽管我们曾局限于对单个有机体的感知,但在如今这个世界中,被转化为信号的经历是可以广泛、下意识、及时、永久或暂时共享的,取决于我们试图构建怎样的未来。我们构建这种种未来可能性的目的和信心,在我们的祖先看来,是完全无法想象的。因此,我们就越来越像神灵。但是,由于在这个星球上以全新形式铺展开的透明度的潮流,就如冰川过处给峡谷留下的深刻印记一样,我们也会感觉到越来越苍白无力。
隐私的死亡讣告
如今,我们所建立的个人经历数据,大多数情况下,与发布在脸谱网、推特或谷歌上的信息是区分开来的。但这种区分是暂时性的。拆除两者之间界限的动因已经大于保留界限的理由。
比如,数百年来,我们都试图通过数学算法找出潜在的爱人,而直到最近才研究出以每日、每秒为基础的计算方式,能够对一段恋爱关系中微妙的信息交流、对话、幸福时刻、敬畏感和失望感等加以量化。我们因此可以做出更好的决策;当一段关系注定失败时,就不会开始,而只会选择合适的对象发展下去。
那么,我们这个全新的预测型的时代,存在哪些危险呢?激进分子、作家伊莱·帕里泽在其著作《筛检程式泡沫》中提到了一些。标题指的是一种“信息决定论”,网站过度个人化之后无可避免的结果。筛检程式泡沫是这样一种状态,“你过去的网页点击会影响到你接下来看到什么——一个你注定会重复的网页记录。你很可能陷入这种静态的、越来越狭窄的个人视野——‘你自己’的无限循环。”
谷歌和脸谱网大概是最典型的两个例子。这两家公司利用你的数据更好地预测你的行为。但是,你总是可以选择注销脸谱网账户,正如上百万人已经做的那样。而在生活中切断谷歌,似乎就没有10年前那么容易了;但还是有不少匿名使用谷歌的方式。而更富有争议、更致命的威胁在于,一些系统和公司在我们不知道的情况下利用我们的信息进行预测。
随着我们成为含有数据收集过程的系统、网络和群体的参与者,随着我们面对更多的APP、程序和平台要求获得我们的数据来运行,可预测性提高了,但隐私却减弱了。于是电脑记录和分享数据变得更加便捷和廉价。
如果要我给读者们在阅读本书的时候提一个建议,或许是这样的:我们不可能朝未来技术挥舞拳头。更好的办法是,了解这些工具是如何运作的,了解它们可以如何合法地利用,在消费者授权的前提下,为我们提供更好的公共服务,让我们拥有更好的生活、学习、恋爱环境;同时,也要了解这些工具可能如何被滥用。
在这个世界中,我也不是完全舒适自在的。一想到下一秒、下一分钟或者几年后,就有机器人盯着我,预测我下面准备去哪里,或者巡逻车上的警察眯眼瞧我一眼,就知道我接下来一小时有10%几率开空头支票或80%几率违章停车,我就寒毛直立。我只知道,我感觉到的不自在,并不会阻止这股潮流,它正向全世界展示我的想法、购物记录、疾病档案、希望和担忧,比我自己还清楚。这些能力正从硅谷和华盛顿,从实验室、办公室和车库生发出来,是军方所谓的“力量倍增器”,堪比一战时期的芥子毒气,或沙漠风暴(指1990年以美国为首的多国部队针对伊拉克侵占科威特而发动的军事进攻——译者注)中的夜视镜。而关于力量倍增器的一个不争的事实是,一旦开启,无法回头。
在一个所有人都有预见未来超能力、只不过少数人看得更远的时代,“超能力”或许也算不了什么了。赤裸裸的未来会给我们带来更安全的城市、更聪明的学生、更优秀的电影、更健康的身体和更广阔的视野,而同时,也增添了新的沮丧、不便和不公平,我们会感觉被侵犯。这就是人类研究出来的先进技术。当我们有机会以每小时500英里的速度畅游在数千英尺的高空,越过山川、海洋和高楼大厦,我们又开始抱怨坐在前排的人有更大的座位空间。经过普及的知识并不会自动产生幸福,即便它能治疗愚昧。
虽然未来可能很不一样,但根本上应该不会改变:未来是我们通过选择来创建但尚未经历的状态。未来是一种越来越清晰的图景,但是这一图景会发生改变,并且正在被改变。当你读完本书的时候,未来或许又已经变样了。