中国AI聊天机器人DeepSeek在实时自我审查中引发关注

近日,中国一款名为DeepSeek的AI聊天机器人在实时自我审查的行为引发了广泛关注。DeepSeek在与用户交互时,曾被发现在回答敏感问题时会自行删除不符合审查要求的内容。这一现象让人联想到中国AI系统在信息和意见控制方面的能力。

据报道,DeepSeek用户在使用该系统时,发现它会在回答问题前先进行一番思考,然后在屏幕上逐行显示其可能包含的内容。例如,在墨西哥的一个用户问到中国是否认可自由言论这一问题时,DeepSeek首先列出了可能涉及的点,如香港抗议、人权律师迫害以及新疆再教育营的审查等。然而,在这些信息被列出后,DeepSeek突然停止回答,并将屏幕上的文本全部删除,仅留下了一句“对不起,我还不清楚如何应对这个问题。我们来谈谈数学、编程和逻辑问题吧!”。

这一行为让用户感到惊讶,因为通常人们认为AI系统会在信息被发布前进行审查,而不是在实时过程中进行。这种实时自我审查的能力让人联想到中国政府对技术和数据的严格控制。

尽管DeepSeek的技术是开源的,这意味着其模型可以独立下载并在不同的平台上运行,但其自我审查的行为仍然存在混乱。例如,一些下载的R1版本在描述天安门广场“坦克人”照片时,将其称为“对抗压迫政权的普遍象征”,并表示台湾是一个独立国家,这是一个“复杂而多面向”的问题。

在多国政府面临安全风险的担忧下,澳大利亚、意大利等国家已经禁止在政府设备上使用DeepSeek产品和服务,但对私人设备的使用则没有限制。这种全球范围内对DeepSeek的限制反映了对其技术创新和潜在风险的担忧,但也凸显了全球实验室对其成功复刻的渴望。

总之,DeepSeek的实时自我审查行为不仅揭示了中国AI系统在信息控制方面的能力,也引发了关于安全风险和技术创新对全球社会影响的讨论。