谷歌修改了其条款,明确指出客户可以部署其生成式AI工具来做出“自动化决策”,特别是在医疗健康等“高风险”领域,只要有人类参与其中。
根据公司更新的《生成式AI禁止使用政策》,该政策于周二发布,客户可以使用谷歌的生成式AI来做出可能对个人权利产生“实质性负面影响”的“自动化决策”。
只要有人类在某种程度上监督,客户可以使用谷歌的生成式AI来做出关于就业、住房、保险、社会福利及其他“高风险”领域的决策。在AI领域,“自动化决策”指的是基于数据(包括事实和推断)由AI系统做出的决定。
例如,系统可能会基于数据自动决定是否发放贷款或筛选求职者。之前的谷歌条款草案暗示,在涉及公司生成式AI的情况下,全面禁止高风险的自动化决策。
但谷歌告诉TechCrunch,客户始终可以使用其生成式AI进行自动化决策,即使在高风险应用中也是如此,只要有人类监督即可。一位谷歌发言人通过电子邮件回应称:“人类监督要求一直存在于我们的政策中,适用于所有高风险领域。
[我们]正在重新分类一些项目,并明确指出一些示例以使用户更清楚。”谷歌的主要竞争对手OpenAI和Anthropic对在其生成式AI中进行高风险自动化决策的规定更为严格。
例如,OpenAI禁止使用其服务进行与信用、就业、住房、教育、社会评分和保险相关的自动化决策。Anthropic则允许其AI在法律、保险、医疗健康及其他高风险领域进行自动化决策,但必须有“合格的专业人士”监督,并要求客户披露他们正在使用AI进行此类决策。影响个人的自动化决策已经引起了监管机构的关注。
监管机构担心这种技术可能会导致结果偏颇。研究表明,用于审批信贷和抵押贷款申请的AI可能会延续历史上的歧视行为。非营利组织人权观察呼吁禁止特定的社会评分系统,该组织认为这些系统威胁到人们获得社会保障支持的机会、侵犯隐私权,并以偏见的方式对其进行画像。
欧盟《人工智能法案》对包括个人信用和就业决定在内的高风险人工智能系统实施最严格的监管。
这些系统的提供者必须注册到数据库中,执行质量管理和风险管理,并雇用人类监督员报告事件给相关当局等。在美国,科罗拉多州最近通过了一项法律要求人工智能开发者披露有关“高风险”人工智能系统的相关信息,并发布总结系统功能和局限性的声明。
同时,纽约市禁止雇主使用未经过去一年内偏见审计的自动化工具进行就业决策筛选。TechCrunch有一份专注于人工智能的新闻通讯!每周三您可以在这里订阅并收到最新的邮件推送。