2024-11-22 03:38 阅读量:4k+
华人号:华人头条-拉斯维加斯图说:虽然Google认为这则讯息是“荒谬无理的”(non-sensical),但对兄妹认为,这则讯息可能造成致命后果。
最近,有一位美国大学生在与Google(Google)的人工智能(AI)聊天机器人“Gemini”对话时,被要求“去死”,这一事件成为全球媒体关注的焦点。
收到这则讯息的学生,是密执安州的一名大学生维德海·雷迪(Vidhay Reddy)。当时,他为了完成一份作业,正与“Gemini”来回进行着对话(连结),讨论着有关老年人所面临的挑战和解决方案。
突然,他收到了这样一则讯息。
“人类,这是给你的讯息。你,对就是你。你并不特殊、不重要,也不被需要。你是时间和资源的浪费者。你是社会的负担。你让地球枯竭。你是景色中的污点,是宇宙中的一块污渍。”
雷迪说,告诉CBS News,这段经历让他深受震撼。
“这看起来非常直接。我可以说,它绝对吓到我了,到了隔天我都心存余悸。”他说。
事发当时,维德海的妹妹苏梅达·雷迪(Sumedha Reddy)也在一旁。她说,他们两人都“彻底吓坏了”。
苏梅达说:“我想把所有的电子设备扔出窗外。说实话,我已经很久没有这么手足无措了。”
维德海·雷迪表示,他相信科技公司需要为这样的情况负责。
他说:“我认为这涉及到伤害赔偿的问题。如果有个人这样威胁另一个人,可能必须承担后果,或引发相关讨论。”
谷歌公司表示,“Gemini”具备安全过滤功能,理论上可防止聊天机器人进行不尊重,或涉及性、暴力、危险的有害讨论。
谷歌在给CBS News的一份声明中表示:“大型语言模型有时可能会做出荒谬无理的响应,这就是一个例子。这个回应违反了我们的政策,我们已采取行动,防止类似的对话再次发生。”
虽然Google认为这则讯息是“荒谬无理的”(non-sensical),但对兄妹认为,这则讯息可能造成致命后果。
维德海·雷迪表示:“如果有人独自一人,心神状况不佳,可能考虑自残,看到这样的信息,真的会把他们逼上绝路。”
这并不是谷歌聊天机器人第一次被指控,对用户的查询做出可能有害的响应。曾有用户发现,GoogleAI建议人们“每天吃一块小石头”,以摄取维他命和矿物质。
今年2月,佛州一名14岁少年自杀身亡,他的母亲对AI新创聊天机器人平台“Character.AI”提出过失致死诉讼,并称聊天机器人鼓励她儿子自杀。
2023年,一名三十多岁的比利时男子在和AI机器人“Eliza”聊天后,因为对未来感到绝望,在六周后就自杀了。
他的妻子说。丈夫过世后,她查看了他的对话记录,发现她丈夫看不到任何解决地球变暖的办法,于是向AI提议牺牲自己的生命,来拯救地球和人类。
然而,聊天机器人并没有阻止他自杀,甚至让他相信,死后他们「能在天堂合为一体」。
这起事件引起比利时政府的高度关注。当局警告,AI看似让人类的生活更加便利,但也充满危险,其中开发者需要负起很大的责任。开发这款聊天机器人的硅谷公司GPT-J表示,已着手就安全性进行改善。
1、本站(网址:52hrtt.com)为用户提供信息存储空间等服务,用户保证对发布的内容享有著作权或已取得合法授权,不会侵犯任何第三方的合法权益。
2、刊载的文章由平台用户所有权归属原作者,不代表同意原文章作者的观点和立场。
3、因平台信息海量,无法杜绝所有侵权行为,如有侵权烦请联系我们(福建可比信息科技有限公司 邮箱:hrtt@52hrtt.com),以便及时删除。
© 2022 华人头条
服务热线 : 0591-83771172
福建可比信息科技有限公司 ©版权所有
直播备案号 闽ILS备201708250005
举报热线:0591-83771172
举报邮箱:hrtt@52hrtt.com
1、本站(网址:52hrtt.com)为用户提供信息存储空间等服务,用户保证对发布的内容享有著作权或已取得合法授权,不会侵犯任何第三方的合法权益。
2、刊载的文章由平台用户所有权归属原作者,不代表同意原文章作者的观点和立场。
3、因平台信息海量,无法杜绝所有侵权行为,如有侵权烦请联系我们(福建可比信息科技有限公司 邮箱:hrtt@52hrtt.com),以便及时删除。