要点
- 苹果最近推出了一项新的 iOS 功能,该功能使用 AI 总结新文章。
- 人工智能摘要因误解新闻报道而受到批评。
- 记者和新闻媒体呼吁苹果暂停该功能。
2024 年 11 月,Apple 推出了一项新的 iPhone 功能,该功能使用 AI 将新闻故事总结为简短的通知。
但苹果情报更新发布仅一个月后,它就因向用户发送不准确的通知而受到批评,这些通知完全误解了他们想要总结的新闻内容。”
苹果的人工智能失误
关于苹果人工智能摘要不准确的第一份报告是在该功能推出几天后出现的。
有一次,AI 错误地声称 BBC 报道称,因纽约医疗保险首席执行官布莱恩·汤普森 (Brian Thompson) 被谋杀而被捕的男子路易吉·曼吉奥内 (Luigi Mangione) 开枪自杀。
这一失实陈述引发了 抱怨 该组织表示,这些通知削弱了读者对 BBC 新闻的信任。
一位发言人表示:“对我们来说,至关重要的是,我们的受众可以信任以我们名义发布的任何信息或新闻。”他补充说,“其中包括通知。”
在另一个例子中 报道 由 ProPublica 记者肯·施文克 (Ken Schwencke) 撰写的专题报道歪曲了以色列总理本杰明·内塔尼亚胡 (Benjamin Netanyahu) 的报道,错误地声称他已被捕。
关闭人工智能摘要,要求记者
记者们已跻身其中 最直言不讳的批评者 指责苹果的人工智能通过扭曲关键细节来破坏他们的工作。
《华盛顿邮报》专栏作家杰弗里·福勒 说 这些混淆是“极不负责任的”,并呼吁苹果“关闭新闻应用程序的摘要,直到它在人工智能方面做得更好。”
其他记者和新闻媒体也要求苹果禁用该功能,直到解决该错误为止。
英国全国记者联盟 (NUJ) 敦促 苹果在造成更多损害之前撤销了该功能。
“人工智能生成的摘要错误地归因信息可能会损害记者道德报道的声誉,”NUJ 秘书长劳拉·戴维森 (Laura Davison) 评论道。 “公众不应陷入事后质疑他们收到的新闻准确性的境地。”
幻觉仍然是一个问题
人工智能“幻觉”问题(用于描述人工智能生成虚假或无意义信息的情况的术语)仍然是该行业面临的持续挑战。
检索增强生成(RAG)等新技术可以帮助最大限度地减少人工智能模型输出的虚假信息量。然而,正如苹果案例所表明的那样,自动事实检查人工智能生成内容的方法仍然不完善。
随着这家大型科技公司面临越来越多的批评,目前尚不清楚苹果是否会暂停或彻底改革这一有争议的功能。
目前,用户质疑其通知的可靠性,记者则想知道人工智能是否已经准备好进入新闻编辑室。
这篇文章有帮助吗?