第162节(4 / 6)
可以被视作一种规律。
从这个角度来看,严可守最近这一个月所做的工作,还是卓有成效的。
和以前的ai测试过程很类似,当项目大部分成员认为这些ai已经无法通过互相学习,了解更多信息的时候,就会进行比较开放性的测试,这就好像即使是小学生,也不能老呆在教室和家里,接触更大的环境,不仅是对人,对ai也有非常重要的意义。
不过这一次,严可守不打算采取前面的两种方式,包括请人来参加测试,以及在网上放开客户端,在他看来,这种类型的测试,充其量也只是把小学生从课堂带到了操场,如果ai需要得到真正的锻炼,它需要拥有相当的自由度。
严可守打算直接让这些ai通过人类传统的网络交流方式,来进行“完全开放”的测试,不过这个提议因为事关重大,日本政府作为项目的监管方,暂时还没有同意。
对于这一点,严可守已经在技术上再三进行了说明,所谓ai可以利用网络不受人类控制这一点,完全不可能,在整个项目的初期,整个技术团队就已经为这些ai打造了一个最牢不可破的“牢房”。
在硬件上,所有ai都被储存这三个房间的机柜中,任何原始数据的进出,都必须得到日本政府方面的授权,事实上,日本政府现在根本没有考虑过会在这方面予以授权,就连严可守自己,也没有权利从这个房间里带出哪怕一块硬盘,就连上次他用u盘拷贝个客户端出门,都要经过两名精通计算的士兵严格检查。
在软件上,每个ai呆的环境,都可以说是遍布荆棘和炸弹,除了通过程序保证ai源程序无法被复制以外,还有大量类似杀毒软件的监管程序,监控这些ai程序的状态,如果这些程序出现任何“不被允许”的行为,包括复制自己,控制自己存储空间以外的程序,就会被认定这些ai已经“中毒”,监管程序将发出警告,并在第一时间断开物理连接,而两名随时在场的士兵就会在第一时间,将出现警告的硬盘拔出,他们甚至有权直接现场“物理摧毁”硬盘,机房的角落的灭火器箱里,一瓶红色的灭火器,但黄色的却是燃烧弹。
而且,每隔几天时间,技术人员都会对这些源程序进行检查,特别是在ai主程序之外的“辅助程序”,按照严可守制定的“人工智能安全管理条例”,这些辅助程序中除了文字处理软件,绝对禁止出现任何图像分析,特别是与图像识别相关的软件,严可守用这种手段,从根本上保证了这些ai根本就“看”不到世界,即使看到了,也“看不懂”,如果不仿照语言和文字方面对ai专门在这方面进行训练,对ai来说,任何图像都只是一堆数据而已。
严可守的三浦曾经就说过,如果ai是一个人,那它一定会对它出生的世界感到绝望,因为从它婴儿时期开始,他的创造者就制造了一堆防范他的设备,为他配备了最好的牢房,最严密的看守,最后还不放心,甚至刻意就不给它“造”眼睛,对于ai来说,这世界就是完全黑暗,没有声音,没有感觉的虚空世界,他们唯一能感受到的,就是不间断收到的“信息”,事实上,从这一点上来说,ai呆在计算机里,倒蛮像闭上眼睛的意识网用户的,除了思维上的碰撞,没有任何其他的刺激,当然,除了思维上的反馈,他们也无法做出任何有“现实”意义的事情,从这一点上来说,ai应该会成为“纸上谈兵”的最佳典范。
但即使如此,作为整个项目的监管方,日本政府对汪铭的提议还是觉得不放心,尽管这在三浦看来,根本就是把一群犯人戴上镣铐,背后顶着枪,然后拉到街上去“游街示众”,从理智上来说,确实没有太过担心的必要,但人从来就不是理智的生物,日本政府方面一再提出:“再等一等,再看一看,一定要确保万无一失……”
严可守只能暂时答应了,不过作为项目的主要技术人员,严可守还是得到了授权,在有专门技术人员在一旁“监管”的状态下,可以允许这些ai进行类似的测试。
从目前来说,要说够的上对这些ai进行“监管”资格的,除了主持最核心程序开发的不到五名的核心技术人员,也找不出其他的人了,像三浦这样的工作人员,涉及的开发内容都是与核心程序无关的外部环境和借口,对于ai的原理其实并不清楚,而许多对原理清楚的,比如项目开发初期,请教的一些行为学、心理学、甚至神经学教授,对程序又不是很了解,要说对这两方面都有足够的认识,能够真正对ai起到监管作用的,也找不到太多的人了,而其他几名技术人员都在项目告一段落的时候,纷纷回国去了,这是一个国际合作项目,他们只是过来在关键时候“支援”一下,完成之后,就只有严可守作为整个项目的负责人留了下来,负责一些“日常维护”工作。
这一个月对源程序的“改动”,其实也并未彻底改变原来项目搭下来的架子,要不然,也不可能只在短短一个月之内完成了,从头到尾,ai的程序模板都是模仿生物学上面的,刺激,调整,再刺激,再调整这个套路进行,严可守只是将“刺激”的定义在这中间稍微修改了一
↑返回顶部↑