泰国新闻网XTHAI报道,人工智能领域又传来重磅消息!Anthropic公司最近与美国能源部国家核安全局联手,给他们的Claude AI装上了一道“安全锁”。这套新部署的核武器分类器,专门用来揪出那些试图询问核武器制造方法的“不良企图”,准确率高达96%,堪称AI界的“火眼金睛”。
这套系统可不简单,它能精准区分用户的意图:如果你只是好奇核技术原理或者想了解铀-235的知识,Claude会耐心解答;但如果你试图打探核武器的制造蓝图,抱歉,系统会立马标记并掐断对话,给你来个“禁止通行”。Anthropic还透露,他们打算把这项技术分享给前沿模型论坛,未来像ChatGPT这样的AI工具可能也会用上类似的“防护罩”,让AI世界更安全。
值得一提的是,Anthropic还在不断升级Claude的安全性能。据悉,他們已在Claude Opus 4中启用了AI安全等级3(ASL-3),专门防范AI被滥用于化学、生物、放射性和核武器(CBRN)相关内容的开发或获取。同时,他们也在与国家核安全局合作“红队测试”,确保Claude不会泄露敏感的核信息。
不得不说,在AI技术飞速发展的今天,这样的安全举措让人安心不少。毕竟,技术是把双刃剑,用好了是福,用错了可就是大麻烦。你觉得AI安保措施是不是越严越好?还是得在安全和自由间找个平衡点?
加入我们的讨论区 «点我加入»