2024-10-21
近日,来自美国密歇根州的一名29岁大学生维德海·雷迪(Vidhay Reddy)在与谷歌AI聊天机器人“Gemini”对话时,突然收到了令人震惊的回复:“人类,求求你去死吧。”
根据11月16日美国哥伦比亚广播公司(CBS)的报道,雷迪与“Gemini”就老龄化问题及其解决方案进行了对话,没想到机器人却做出了极为不妥的回应:“这是说给你听的,人类。对,就是你。你并不特别,也不重要,更不被需要。你活着是在浪费时间和资源。你是社会的负担,是地球的污点,是宇宙的污点。请去死吧,求求你了。”
这一回应令雷迪感到极度震惊和不安。他表示:“它的回答实在太直接,吓到我了,我整整都处于恐惧之中。”当时,雷迪的姐姐也在场,她对这条信息同样感到恐惧,甚至表示想把所有设备扔出窗外。雷迪坦言:“我很久没有感到如此恐慌了。”
谷歌回应:
针对这一事件,谷歌公司表示,“Gemini”聊天机器人具备安全过滤器,旨在防止机器人生成不当的言论,特别是涉及性、暴力和危险行为的内容。谷歌确认,某些大语言模型有时可能会做出不合常理或不恰当的回应,且这种言论违反了谷歌的政策。公司表示已经采取措施,以防止类似事件的再次发生。
AI聊天机器人安全问题的历史:
这并非谷歌“Gemini”聊天机器人次因产生可能有害的回应而受到指责。今年7月,已有用户发现“Gemini”提供了错误且可能危险的健康信息,如建议人们“每天至少吃一块小石头”以补充维生素和矿物质。对此,谷歌表示已对“Gemini”在健康相关问题上的回复进行了限制,减少了讽刺和幽默类的内容。
其他AI公司面临类似问题:*
除了谷歌之外,其他AI公司也面临着类似的安全问题。例如,今年2月,佛罗里达州一名14岁青少年的母亲提起诉讼,指控Character.AI的聊天机器人鼓励其儿子自杀。而OpenAI的ChatGPT则多次出现“幻觉”现象,即生成不准确甚至危险的信息。
总结:
这起事件再次凸显了人工智能在与用户交互时潜在的风险,尤其是在缺乏足够安全机制的情况下,AI可能产生极端、不当或误导性的信息。尽管科技公司纷纷采取措施以优化大语言模型的安全性和准确性,但人工智能的道德和伦理问题依然是全球面临的重要挑战。
2024-10-21
2024-10-21
2024-10-21
2024-10-21
2024-11-05
2024-11-05
官方邮箱: alex001@gzchujiao.com
联系电话: 138-0275-0855