“最为稳妥的方式是频繁赞同和附和其他人的观点,这样既能够频繁地发言,又不会太引人注目。”克拉克如此建议,这是一条两全之策。
“随声附和的话基本上是废话,不会具备太多新的信息,这样也能够尽量避免在内容上出错。加上一般表达观念的人都渴望认同,附和的人不会被过多怀疑。”孟繁岐赞同这个应对风格。
此前内部测试的时候,还是足球话题,有梅西的球迷嘲讽C罗为阿韦罗,结果被GPT以为是布兰东阿韦罗,导致对话出现了严重的事实性问题,就没聊到一起去。
“另一种方式就是多提问,在你上次展现出来的概念视频中,GPT可以针对多种问题多种方式给出答案,为人们答疑解惑。许多人可能都会被这件事情误导,以为机器人知道的东西非常多,如果第二种对话方式以多提问为主,应该会比较少受到怀疑。”韩辞的视角是反其道而行之。
“自己主动提问,就可以把话题尽可能地把握在某个范畴之内,也算是一个不错的策略。”孟繁岐同样赞同这个思路,在聊天当中,话题通常都会有一个发起人。
如果你是话题的发起人,在一个群聊当中,大概率或多或少有人会回复你,这样的话,对话继续进行下去就不会显得奇怪。
而若你去接别人的话题,做了一些路线上的修改和延伸,是有挺大的概率没人回复你的,更多的人会直接回复话题的发起者。
这样一来,如果仍旧自说自话,就显得有些怪异了。
“这次先做一个一两百人左右的狼人杀小游戏试试水,等到后面GPT技术再成熟一点,就完全可以上线做一个在线社交游戏了。随机聊天两分钟,让用户猜猜看对面是人还是机器人,猜过之后可以将答案告知用户,搞点积分和排名什么的。”
孟繁岐的这个设想,是23年一个以色列AI实验室搞的在线游戏《human or not》,该游戏基于150万用户和超千万次测试结果得出的结论是,23年的语言大模型,游戏平均错误率为百分之70左右。
只有大约不到2成的用户可以比较高概率地分辨对面是人还是机器,而且越老的人,就越分不清。
“我分不清!我真的分不清啊!”
“我们这版本还没有联网搜索功能,应该不会出什么问题吧?”聊天室当中,用户已经开始陆续涌入,路易斯突然想到了这件事,有些紧张地问道。
“最主要的几个新闻,我已经稍微微调过一次了。”2014年的下半年,最主要的新闻就是奥观海空袭ISIS,这标志着美国开始直接干涉中东地区。
其次,就是埃博拉疫情在西非爆发,成为了全球关注的焦点。
主要就是这两件事关注度比较大,如果还要说的话,就是美国的非法移民问题,以及同性婚姻合法化的扩张。
不过这两件事即便普通人不知道,其实也没有什么好奇怪的。
“不过,看起来大家似乎没有关注那种国际事件啊,上来还是在聊足球。”孟繁岐扫了一眼,聊天室内,对话已经陆续开始。
孟繁岐装模作样地与众人聊了一些AI方面的话题之后,群内的主题渐渐走偏,很快就走到了世界杯上。
这也是孟繁岐此前用足球话题测试的原因之一,梅西14年亚军输给德国,很多人都耿耿于怀。
此次,众人精心给应声虫和问题怪加入了许多人设,在足球这个问题上,两人就是对立的双方。
应声虫的设定是梅西的球迷,问题怪则是C罗的球迷。