最近,纽约大学的一个研究团队发布了一项研究,揭示了大型语言模型(LLM)在数据训练中的脆弱性。他们发现,即使只有训练数据的0.001%是错误信息,整个模型也可能出现显著的错误。这一发现尤其令人担忧,尤其是在医疗领域,不准确的信息可能直接影响患者的安全。图片来自AI生成,并由Midjourney授权使用。研究人员已在《自然医学》杂志上发表了他们的论文。
最近,苹果推出了一项名为“AI新闻摘要”的新功能,但这项功能在总结突发新闻时经常出现严重错误,导致用户收到大量错误信息。自该功能推出以来,许多新闻机构和用户表达了强烈不满,认为苹果的技术还不够成熟,无法有效提供准确信息。据《华盛顿邮报》科技专栏作家杰弗里·福勒在社交媒体上指出,苹果的AI在新闻摘要中错误地描述了一条新闻。