最近,纽约大学的一个研究团队发表了一项研究,揭示了大型语言模型(LLMs)在数据训练中的脆弱性。他们发现,即使在训练数据中只有0.001%的信息是错误的,整个模型也可能出现重大错误。这一发现尤其令人担忧,特别是在医疗领域,因为错误信息可能直接影响患者的安全。
图片来源说明:图片由AI生成,图片来自服务提供商Midjourney
总结:这项研究揭示了大型语言模型在数据训练中的潜在风险,特别是在医疗领域可能带来的严重后果。错误信息的微小比例就能导致整个模型的重大错误,这提醒我们在使用这些模型时需要格外小心。