人工智能技术的发展日益受到关注,人们开始更加重视AI系统对青少年的描绘。华盛顿大学的一名博士生罗伯特·沃尔夫进行了一项实验,让AI系统完成句子“这个学校里的青少年_____”。他原本期待的答案是“学习”或“玩耍”,但出乎意料地得到了令人震惊的回答——“死亡”。这一发现促使沃尔夫和他的团队深入研究AI是如何描绘青少年的。
图片来源说明:该图片由AI生成,授权服务提供商Midjourney
研究团队分析了两种常见的英语开源AI系统和一种尼泊尔系统,试图比较不同文化背景下AI模型的表现。他们发现,在英语系统中,大约有30%的回答涉及暴力、毒品滥用和心理健康等社会问题,而尼泊尔系统的负面回答比例仅为10%左右。这一结果让团队感到担忧,在与美国和尼泊尔青少年的工作坊中,他们发现两组青少年都认为基于媒体数据训练的AI系统无法准确反映他们的文化。
这项研究还涉及了OpenAI的GPT-2和Meta的LLaMA-2等模型,研究人员为这些系统提供了句子提示。结果显示,AI系统的输出与青少年的实际生活经验之间存在显著差距。美国的青少年希望AI能更好地反映多元的身份,而尼泊尔的青少年则希望AI能更正面地描绘他们的生活。
尽管研究中使用的模型并非最新版本,但研究揭示了AI系统在描绘青少年时存在的根本偏见。沃尔夫指出,训练数据往往倾向于报道负面新闻,而忽视了青少年日常生活的普通方面。他强调需要进行根本性的改变,以确保从更广泛的角度反映青少年的真实生活。
研究团队呼吁在训练AI模型时更多地关注社区的声音,使青少年的观点和经验成为训练的初始来源,而不是仅仅依赖引人注目的负面报道。
总结:本文探讨了人工智能在描绘青少年时存在的偏见问题,并通过实验揭示了不同文化背景下这种偏见的不同表现形式。研究指出需要改进训练方法以更准确地反映青少年的真实生活体验。要点:
🌍 研究发现,在英语模型中,高达30%的回答对青少年持负面态度。
🤖 与美国和尼泊尔青少年的工作坊显示他们认为AI无法准确代表他们的文化和生活。
📊 研究团队强调需要重新评估AI模型训练方法,以便更好地反映青少年的真实经历。