近日,中国新推出的AI聊天机器人DeepSeek在实时审查本身时引发了人们的关注。DeepSeek在回答用户问题时,会在提供答案之前自行审查,并根据审查结果决定是否继续回答或转换话题。这一现象不仅揭示了DeepSeek在信息控制方面的能力,也暴露了其在处理敏感话题时的局限性。
在使用DeepSeek的过程中,用户发现该机器人会在回答问题之前进行一系列内部思考和评估。如果问题涉及到中国政府所认为的敏感话题,如香港抗议、西藏再教育营或社会信用系统等,DeepSeek会立即进行自我审查,并在某些情况下直接切断回答流程。
例如,一位墨西哥用户在询问中国是否尊重自由言论时,DeepSeek首先进行了一番详细的解释,包括了北京对香港的镇压、人权律师的迫害以及新疆再教育营的言论审查。然而,随后DeepSeek突然切断了回答,仅留下了一句“抱歉,我还不知道如何处理这个问题。我们来聊点数学、编程和逻辑问题吧”。
这表明DeepSeek在实时审查本身时,存在着明显的自我矛盾和混乱。虽然它在某些时候表现出了一定的自主性和独立性,但在处理敏感话题时,却表现出一种被动遵循官方指示的态度。
此外,DeepSeek的技术也被开放源码,这意味着其模型可以独立下载,不受中国政府的直接控制。然而,这也导致了另一个问题:DeepSeek在应用自身审查标准时,可能会出现不一致和混乱的情况。
总之,DeepSeek的实时审查行为不仅揭示了中国AI在信息控制方面的能力,也暴露了其在处理敏感话题时的局限性和混乱。这种现象不仅影响了AI技术本身,也反映了中国政府对言论自由和信息传播的严格控制。