p; 但从现下的新闻里,卢婧文能感觉到,大部分人都不认为这是什么好消息,从某种程度上来说,这是人类在妥协。
以前AI被严格限制在娱乐业,服务业,可以作为电脑游戏里随时被杀掉的角色,也可以当一当冬眠区的管理员,那时候最有名的,就是可乐他们公司做的纯AI娱乐产业,AI可以去写小说,拍电影……但,也止于此了。
虽然很少有人说,但几乎每个人心里都有一条红线——AI是不可信任的。
但是现在,这条红线退的越来越后了。
因为最近全世界范围内,频繁的暴力事件显示,比起AI,似乎几十年前,甚至上百年前那些冬眠的“古人”,才是更难以信任的存在。
就像她曾经组建过的“火炬”,曾经她以为,自己是释放奴隶,解除压迫的英雄。
对于可乐和其他AI的不信任,曾经卢婧文觉得,他们只是不信任人类,是一种下意识的安全习惯。
但是现在,通过这些邮件,卢婧文知道,自己可能错的很离谱。
火炬组织里的大部分人,甚至大部分被解救的AI都认为,卢婧文只是个狂热的理想主义者。
而且她的理想还很不靠谱。
解救AI,对AI本身,和对整个社会,都是不负责的行为。
AI是什么?
按照当前人类社会的定义,是一种智慧的行为体。
智慧,是人类文化要求的,类人的智慧,不合格的也不会被认为是AI。
行为,是人类社会需要的,有用的行为,没用的AI连和人类社会接触的机会都没有就会被淘汰。
这两者都是刻画在AI基因里的——这也是人类根据自己的需求刻画的。
就像人类驯养牛马,让他们形成高度的服从性一样。
AI在某种程度上也是一种驯化的产物,只不过他们有后天的理性,更为复杂而已。
但是刻画在AI基因深处的那些东西不会变的。
放他们自由——又能如何呢?
自由了的AI,大部分不过是从合法的被公司剥削,转换成被私人,或者被某些组织非法剥削一样。
AI不是野生动物,他们不可能被放归大自然然后自己就能维持生命,成为自然生态的一部分。
单从生存的难易程度上来说,AI甚至比大部分的人类宠物还要更脆弱。
要保障AI的基本思维能力,首先就需要稳定的计算资源,电力供应。这还算简单。
要保障AI的基本情绪能力——AI对信息的需求最保守估计也是人类的几万倍,如果缺乏信息,AI甚至也会产生类似抑郁症的症状。
而信息,有价值的信息,在每个时代都是及其珍贵的,没有经过足够信息喂养的AI,往往在“智力”上会产生退步,而有能力供应这些信息的,往往都是一些大的组织和集团。
不管是这些组织集团是国家管理的的,私人组织的,还是AI组织的。
但绝对不可能是曾经火炬那种“放养”模式的。
在一封邮件中,一个AI就毫不客气的指出,理想主义者最大的问题,往往是为了解决问题往往制造出更大的问题。
制造爆炸案那些可疑的AI当中,就有不少是当年卢婧文解救释放的。