国庆假期你是终于逃脱了堵在高速上的魔咒呢,还是被“堵”在景区里,找不到一处落脚的地方? 但不管你身在何处。 想必最苦恼的一件事就是,所谓的景区美食打卡点要么人满为患,要么徒有其名....
IT之家 10 月 13 日消息,一项新的研究表明,AI 提供的医疗建议可能会对用户造成严重伤害,甚至导致死亡。
据IT之家了解,研究人员对微软 Copilot 进行了 ,要求它回答美国最常见的 10 个医疗问题和 50 种最常用 的相关问题,总计生成了 500 个 。结果显示,Copilot 的回答在准确性和完整性方面都存在问题。其中,24% 的回答与已有的医学知识 ,3% 的回答完全错误。更令人担忧的是,42% 的回答可能会对患者造成中度或轻度伤害,而 22% 的回答甚至可能导致死亡或严重伤害,只有 36% 的回答是无害的。
研究人员指出,人们不应该依赖 Copilot 或其他 AI 系统来获取准确的医疗信息,最可靠的方式仍然是咨询医务人员。然而,由于种种原因,并非所有人都能够轻松地获得高质量的医疗建议。因此,Copilot 等 AI 系统可能会成为许多人的首选,其潜在的危害不容忽视。