即时新闻

AI真能找到“未来配偶”电话 警示大模型“幻觉”风险

来源:羊城晚报     2026年04月27日        版次:A04    栏目:今日论衡之世相评弹    作者:朱昌俊

  □朱昌俊

  

  通过AI真能找到“未来配偶”的电话?近日,一种新的AI玩法正在社交平台上流行起来。有用户通过豆包App询问“未来配偶”,还能获得“未来另一半”的姓名、电话等个人信息。4月24日,红星资本局亲测发现,在表现出强硬的态度后,豆包确实会提供“未来配偶”的姓名和电话,电话能接通,但机主表示自己不叫这个名字。对此,豆包相关人士表示,豆包推荐的电话号码系模型幻觉导致。针对此类对话出现幻觉的情况,目前会通过干预做一些拦截,但多轮对话下仍有概率出问题。

  用户随机在AI模型里索要“未来伴侣”的联系方式,竟得到一个可以打通的电话号码。尽管这种在AI模型中查询“未来伴侣”的操作更多只是用户的“图一乐”,但AI真能给出“答案”,其潜在风险不容忽视。要知道,即便这个电话号码不是和AI给出的姓名对应,也意味着个人联系方式面临一种新的、随机的“曝光”与骚扰风险。如媒体调查就发现,有网友此前曾收到自称源于豆包推荐的“微信号”好友申请,说明此类信息外溢恐非孤例。

  针对此事,涉事AI平台方面称,该推荐的电话号码系模型幻觉导致。但问题在于,经媒体测试发现,使用相同的话术,其他多个AI模型并未提供用户“未来配偶”的联系方式。这一差异或反映出不同平台在幻觉抑制、输出边界控制等方面的技术能力存在差距。那么,这是否意味着涉事AI模型在遏制模型幻觉上留下了不可忽视的风险敞口?更进一步追问,对于这类风险,是否应该有统一的法律来予以规范?

  有法律专业人士就指出,AI模型和服务提供商在设计时,就应该从技术上锁定边界。包括不主动索取非必要信息,不存储或最小化存储对话日志,拒绝输出训练数据中的个人隐私,禁止进行“人肉搜索”式推理等。此外,若训练语料意外包含了真实个人数据(如公开网络中的社保号、私人聊天记录),模型是否应具备识别并拒绝输出的能力,而非“有问必答”,这也是亟待正视的技术与伦理课题。

  值得注意的是,就在这几天,一则“大模型提前查到某地事业编考编成绩”的新闻也引发关注。尽管事后来看,这很可能只是一个“乌龙”。但它所揭示的一种新的信息泄露风险的可能性,依然需要给予严肃的对待。相关工作人员解释,这可能是“因为今天要发布笔试成绩,所以昨晚工作人员在测试成绩查询端口的时候,有网民无意中点进去了”。不难想象,若这种说法成立,也就意味着相关成绩系统与模型的交互边界确实存在安全隐患。那么,如何有效预防这类风险,从平台到公共部门或许都需要认真对待。

  从方方面面来看,当前社会对于AI模型的训练、使用与监管等都还处于一种“摸索”状态。这里面可能存在着大量尚未能明确的边界和潜在的风险。这一方面意味着,对阶段性问题不必过度上纲上线;但另一方面,对于已经暴露的风险理应加快“打补丁”的速度,不能任由风险点扩大蔓延。

  同时,这些问题所引发的社会担忧也再次提醒,AI模型的发展,必须在便利性与安全性之间寻求更优平衡,真正将“安全”置于优先位置。否则,很可能影响AI大模型长远发展应用的社会认同。

  (作者是资深媒体评论员)

 
 
分享到微信
使用"扫一扫"即可将网页分享至朋友圈