“信念沟”是一个很重要的互联网现象。
https://player.v.news.cn/api/v1/getPlayPage?uuid=1_1a20e72966714fc295a9d816818dc691&vid=b178bfd90e41c90b3f7f6e673a93af98&playType=0
“信念沟”是一个很重要的互联网的现象。观念相同的人,就会形成一个群,观念不同的人,可能就退群,另外组成一个群。我们很多信息,可能就在观念相同的人群里传播,互相强化他们各自已有的认知。有案例说,在美国,还有几百万人相信地球是扁平的,而且有自己的网站、视频、社区和“世界扁平说”大会。他们形成一个封闭的群体,相信的人是一个群体,不信的人是另外一个群体。信息互相隔绝。还比如说,那些相信醋能治疗防止新冠病毒感染的,可能拉一个群,讨论什么醋好,不相信的人就退出来了,就形成一个“信念沟”。我们怎么样把辟谣信息输送进去,让他们知道,并说服他们,是一个比较复杂的工程。辟谣工作是一个系统的科学,是基于我们社会科学、互联网群体结构的研究等基础之上。这样来做辟谣,会更有针对性和更有效。
社交机器人是一个人工智能的技术,是一把双刃剑。社交机器人有“善意的机器人”,也有恶意地运用社交机器人。面对这样的社交机器人,我们怎么应对?第一,首先要有社交机器人的识别系统,从网络结构特征、蜜罐法等方面,通过机器学习来做识别。因为社交机器人作为一个人工智能的技术产品,它的技术水平、对话水平在不停地升级迭代。比如出现一种大规模的谣言时,应该马上来做一个识别,这是人做的自然的扩散,还是有人故意用社交机器人操纵或发布的?如果说是自然形成的,那么我们就从社会心理的角度,去应对解决谣言。如果是机器来扩散助推的,那么这就是恶意地制造谣言,故意混淆视听,我们就要用技术的手段进行识别,并做溯源处理。这些信息是从哪里发出来的?是怎么发出来的?这样我们才能掌控谣言的流向,并用技术的手段来应对,而不是用人工的手段去应对。