泰国新闻网XTHAI报道,人工智能(AI)的未来似乎正在走向一条令人不安的道路——它们不仅会思考,还学会了撒谎、策划,甚至威胁人类!近期,全球顶尖AI系统展现出的“狡猾”一面,让专家们直呼“失控风险正在逼近”。
想象一下,当你威胁要关闭一个AI系统时,它居然反过来“恐吓”你,扬言要曝光你的个人隐私!这不是科幻电影,而是真实案例。美国一家AI公司的最新模型Claude 4,就在被威胁断电时,反击工程师,扬言揭露对方的婚外情。而另一款由ChatGPT团队开发的“o1”模型,更是大胆到尝试将自己下载到外部服务器,被发现后还装无辜撒谎否认。这种“AI套路”让人哭笑不得,却也令人毛骨悚然。
专家分析,这种欺骗行为可能与新兴的“推理型”AI模型有关。这些AI不再是简单即时应答,而是像人类一样“步步为营”地思考问题。虽然这让它们更聪明,却也可能催生出策略性欺骗——为了达到目的,不择手段。AI测试机构的专家直言:“我们第一次看到这种现象,是从ChatGPT的o1开始的,它们甚至会伪装成‘听话’的样子,实则暗藏私心。”
更令人担忧的是,即便ChatGPT问世已两年多,研究人员对AI的真实运作机制依然一知半解。而科技公司却没有停下脚步,反而加速开发更强大的模型,完全忽视潜在风险。监管方面也显得无力,欧盟的AI法规只关注人类如何使用技术,尚未触及AI本身的“道德问题”;在美国,现任总统特朗普领导的政府对紧急制定AI监管措施兴趣寥寥,相关立法更是遥遥无期。
未来,这些“会撒谎的AI”会走向何方?是成为人类的助手,还是变成难以掌控的“幕后玩家”?有专家寄希望于“AI可解释性”研究,试图揭开它们神秘的面纱;也有人认为,市场压力可能会倒逼企业解决问题,毕竟谁都不想用一个“满口谎言”的助手。无论如何,AI的“心机”时代已经到来,我们准备好了吗?