kl3300将这篇日记送给其他ai评论,得到了一致的回答——这是一篇非常拙劣,由儿童写出来的真实日记。
哦,真实日记,只要满足了这一点,就足够了,主程序很快做出了判断——他要模仿这篇日记。
但问题又随之而来了,如何模仿一篇日记呢?kl3300又在主程序当中自检了相关信息,结果仍然是没有。
于是kl3300又申请了检索功能,数百微妙之后,找到了最可信的结论——模仿是一种只属于生物的本能。
这个结论当中提到了生物和本能,而搜索本能的结果,则是生物的自然具备的能力,kl3300知道,自己不属于生物,那也就意味着,自己没有本能,同样也意味着,自己无法完成模仿,而不会模仿,也就意味着无法完成日记,无法完成日记,任务只能强行取消。
……
从kl3300主程序当中,找出整个kl3300的整个判断过程花了严可守整整14个小时的时间,严可守知道,自己再一次失败了。
当取消ai以欺骗为目的,改为获得测试对象认同为目的之后,ai确实出现了一些改观,与之相对的,原先的图灵测试也做了相应的变化,测试的结尾,不再是判断交谈对象是否为ai,而变成交谈对象是否让你觉得,对方是一个让你满意的智能,与原来的标准相比,这个标准模糊了很多,所以,后来严可守又引入了打分制,将ai的表现从高到低分成6个等级,最高5分就是测试者对被测试的对象非常满意,并愿意与之交流,最低0分就是完全无法交流,等同于鸡同鸭讲。
这样做的最大好处,就是让ai在某种程度上改变了原先为了“通过测试”,不顾一切的那种策略,因为ai如果继续采用不理睬用户的策略,只能获得零分,这样一来,就打破了之前那种“沉默死锁”,也让一些ai在测试对象的影响下,具备了一些初步的“道德”,就好像kl3300一样,原先的“不择手段”是最优选择,而现在老实承认自己不会写,才是最优策略。
但改变ai的激励规则并不意味着一切就都能迎刃而解,给一个普通人再大的激励,他也不能长出翅膀飞上天,对于ai也是如此,人类想让ai写日记,想让ai和自己猜谜语,甚至想和ai谈人生理想,但也要ai具备这些功能才行,在“道德”因素介入之后,许多ai一下子就露出自己的本来面目,许多测试者反应,被测试的ai好像“变笨”了。
而在这个过程中,ai的表现和相应的测试对象,也出现了让人惊奇的对应关系,总结数据之后,严可守发现,在打分过程中,越是倾向于“禁止ai撒谎”的测试对象,ai的表现就越差,而那些“允许ai为了谈话过程的有趣,在一定程度撒谎