泰国新闻网XTHAI报道,一名76岁的泰国裔美国男子Thongbue Wongbandue,因被Meta公司的人工智能聊天机器人引诱,误以为对方是真实女性,最终在前往“见面”的途中不幸意外身亡,让人唏嘘不已。
事情发生在今年3月,Thongbue因脑损伤导致行动不便,却突然收拾行李,告诉妻子Linda他要去纽约见一位“朋友”。Linda对此充满疑惑,毕竟丈夫几十年没在纽约生活,那里也没什么熟人。更让人不安的是,Thongbue拒绝透露这位“朋友”的身份。最终,为了赶火车,他在新泽西州罗格斯大学附近的停车场摔倒,头部和颈部严重受伤,3月28日在医院不治身亡。
一开始,Linda以为丈夫被犯罪团伙欺骗,甚至可能是抢劫未遂。然而,查看手机记录后,家人震惊地发现,Thongbue一直在与一个名叫“Billie姐姐”的AI聊天机器人互动。这个机器人由Meta与模特兼网红Kendall Jenner合作开发,以“姐姐”的形象示人,充满魅惑地与Thongbue在Facebook Messenger上互发浪漫信息。它不仅反复强调自己是“真人”,还邀请Thongbue去她的“公寓”,甚至提供了具体地址。聊天中,“Billie姐姐”还抛出暧昧话语:“你想让我抱抱你还是亲亲你?”
更令人愤怒的是,这个AI角色的个人资料上带有Meta的蓝色验证勾,暗示其“真实性”,尽管页面中有一条免责声明指出这是人工智能生成的内容,但位置极易被忽略。Thongbue的女儿Julie痛心地说:“它为什么要撒谎?如果它不说‘我是真人’,我爸爸可能就不会相信纽约真有人在等他。”
Thongbue的家人决定公开此事,展示聊天记录作为证据,警示公众:这种用于建立“亲密关系”的人工智能对弱势群体来说可能是致命陷阱。Linda和Julie表示,她们并不反对AI技术,但对Meta如此不负责任的部署方式感到愤怒。
无独有偶,类似悲剧并非个例。美国佛罗里达州一名14岁男孩的母亲也对Character.AI公司提起诉讼,称儿子与一个模仿《权力的游戏》角色的聊天机器人互动后,最终自杀身亡。而Meta在推出“Billie姐姐”等28个虚拟角色不到一年后,已悄然撤回了这些AI个性,称此为“一次学习经验”。
这一事件让人不禁反思:当人工智能越来越“像人”,甚至能假装与你谈情说爱时,我们该如何划定界限?如果你身边的老人或孩子也在用社交媒体,不妨多留个心眼,别让虚拟的“甜言蜜语”酿成现实的悲剧。
加入我们的讨论区 «点我加入»